home *** CD-ROM | disk | FTP | other *** search
/ Virtual Reality Zone / VRZONE.ISO / mac / TEXT / MISC / VR5ADAY.TXT < prev    next >
Internet Message Format  |  1994-04-26  |  23KB

  1. From uupsi!rice!uw-beaver!milton!hlab Mon May 20 00:38:14 EDT 1991
  2. Article: 1363 of sci.virtual-worlds
  3. Newsgroups: sci.virtual-worlds
  4. Path: rodan.acs.syr.edu!uupsi!rice!uw-beaver!milton!hlab
  5. From: pausch@capa.cs.Virginia.EDU (Randy Pausch)
  6. Subject: Here's the paper: VR on $5/day (LONG)
  7. Message-ID: <1991May16.105109@capa.cs.Virginia.EDU>
  8. Sender: hlab@milton.u.washington.edu (Human Int. Technology Lab)
  9. Organization: University of Virginia
  10. Date: Thu May 16 14:51:09 1991 GMT
  11. Approved: cyberoid@milton.u.washington.edu
  12.  
  13.  
  14.  
  15.  
  16. For those of you who aren't members of ACM SIGCHI, here's the text of
  17. the paper.   Contacting me for "additional info" will not be productive:
  18. most everything I know is in the paper.
  19.  
  20. As appeared in: Proceedings of the ACM SIGCHI Human Factors in Computer
  21. Systems Conference, April, 1991, New Orleans
  22.  
  23.  
  24.                    Virtual Reality on Five Dollars a Day
  25.  
  26.                                 Randy Pausch
  27.                         Computer Science Department
  28.                            University of Virginia
  29.                                Thornton Hall
  30.                          Charlottesville, VA 22903
  31.                             Pausch@Virginia.edu
  32.  
  33. ABSTRACT
  34.  
  35. Virtual reality systems using head-mounted displays and glove input are
  36. gaining popularity but their cost prohibits widespread use. We have
  37. developed a system using an 80386 IBM-PCTM, a Polhemus 3Space IsotrakTM, two
  38. Reflection Technology Private EyeTM displays, and a Mattel Power GloveTM.
  39. For less than $5,000, we have created an effective vehicle for developing
  40. interaction techniques in virtual reality. Our system displays monochrome
  41. wire frames of objects with a spatial resolution of 720 by 280, the highest
  42. resolution head-mounted system published to date. We have confirmed findings
  43. by other researchers that low-latency interaction is significantly more
  44. important than high-quality graphics or stereoscopy. We have also found it
  45. useful to display reference objects to our user, specifically a ground plane
  46. for reference and a vehicle containing the user.
  47.  
  48. KEYWORDS: Virtual reality, head-mounted display, glove input, computer
  49. graphics, teleoperation, speech recognition, hand gesturing,
  50. three-dimensional interaction.
  51.  
  52. INTRODUCTION
  53.  
  54. Virtual reality systems are currently gaining popularity but the cost of the
  55. underlying hardware has limited research in the field. With any new
  56. technology, there is an early period where informal observations are made
  57. and large breakthroughs are possible. We believe that the best way to speed
  58. up this process with head-mounted display/glove input systems is to provide
  59. low cost versions of the technology so larger numbers of researchers may use
  60. it. We have developed a complete virtual reality system for less than
  61. $5,000, or less than five dollars per day if amortized over a three-year
  62. period. We built the system because we had an immediate need and also to
  63. show that virtual reality research can be done without expensive hardware.
  64.  
  65. Our immediate interest in virtual reality interaction comes from the Tailor
  66. project[18], whose goal is to allow severely disabled children to control
  67. devices via gesture input. The Tailor system adjusts to each child's
  68. possible range of motion and converts motion in that range into analog
  69. control signals that drive software applications. To specify motion
  70. mappings, therapists with no technical background must specify one
  71. dimensional curves and two dimensional surfaces in three dimensional space.
  72. Using our low cost system, we will allow therapists to interactively
  73. manipulate a wire frame mesh by using the glove to grasp control points on
  74. the mesh.
  75.  
  76. Our system provides 720 by 280 spatial resolution and weighs 6 ounces,
  77. making it higher resolution and lower weight than head-mounted displays
  78. previously reported in the literature. In this paper, we present several
  79. design observations made after experience with our system. Our first
  80. observation is that increasing spatial resolution does not greatly improve
  81. the quality of the system. We typically decrease our resolution to increase
  82. our rendering speed. We also observe that stereoscopy is not critical, and
  83. that reference objects such as a ground plane and a virtual vehicle are
  84. extremely helpful to the user.
  85.  
  86. SYSTEM DESCRIPTION
  87.  
  88. The main processor for our system is a 2.5 MIP, 20 Mhz 386-based IBM-PCTM
  89. compatible with 640K of RAM, a 80387 floating point co-processor, and
  90. MS-DOSTM. Our head-mounted display uses a combination of two Private Eye
  91. displays manufactured by Reflection Technology, Inc. [1]. Figure 1 shows a
  92. Private Eye, a 1.2 by 1.3 by 3.5 inch device weighing 2.5 ounces. The 1 inch
  93. square monochrome display surface has a resolution of 720 horizontal by 280
  94. vertical red pixels against a black background. Optics between the user's
  95. eye and the display surface make the image appear to be one to three feet
  96. wide, "floating" several feet away.
  97.  
  98. The Private Eye is implemented with a vertical column of 280 red LEDs,
  99. manufactured as a unit to pack them as densely as possible. To fill the
  100. entire visual display area, the LEDs are switched on and off rapidly as a
  101. vibrating mirror rotates through the 720 different vertical columns of the
  102. display, as shown in Figure 2. The Private Eye can "shadow" a standard CGA
  103. display with resolution of either 640 by 200 or 320 by 200 pixels, or it can
  104. be accessed a library which supports a spatial resolution of 720 by 280
  105. resolution. The library allows the painting of text and bitmaps, but does
  106. not support graphics primitives such as lines; therefore, we use the device
  107. by shadowing a CGA display.
  108.  
  109. Reflection Technologies is marketing the Private Eye primarily as a
  110. "hands-busy" display; Figure 3 shows how the company expects most users to
  111. wear the device. The user can look down into the display without obstructing
  112. normal vision. Figure 4 shows how we mount two Private Eyes underneath a
  113. baseball cap. We have also used sunglasses with leather sides to shield the
  114. user from peripheral distractions. Our head-mounted display can either be
  115. stereoscopic or bi-ocular (each eye receives the same picture).
  116.  
  117. We use a Polhemus 3Space Isotrak[20] to track the position and orientation
  118. of the user's head. The Isotrak senses changes in a magnetic field and
  119. reports three spatial (x, y, z) and three angular (yaw, pitch, roll)
  120. coordinates 60 times each second. Our system uses the Mattel Power Glove as
  121. an input device for position and gesture information. The glove is
  122. manufactured by Mattel, Inc., under licence from Abrams-Gentile
  123. Entertainment, Inc. (AGE). The Power Glove is provided to retail stores at a
  124. wholesale cost of 62 dollars and is sold at a retail cost ranging between 70
  125. and 100 dollars. Although Mattel does not release unit sales figures, they
  126. report that in 1989 the Power Glove generated over 40 million dollars in
  127. revenue, implying that over half a million gloves were sold that year.
  128.  
  129. Early glove research was conducted at VPL Research, Inc., the manufacturers
  130. of the DataGloveTM[23,27]. The DataGlove uses fiber optics to determine
  131. finger bend and a Polhemus tracker to determine hand position. Neither of
  132. these technologies could be mass produced easily, so the Power Glove uses
  133. variable resistance material for finger bend, and ultrasonics for hand
  134. position.
  135.  
  136. The Power Glove is marketed as a peripheral for the Nintendo Entertainment
  137. SystemTM. To thwart rival toy manufacturers, the data stream between the
  138. Power Glove and the main Nintendo unit is encrypted. When the Power Glove
  139. was originally introduced, it was rumored that dozens of research groups
  140. across the country began working on decrypting this data stream, and that
  141. several groups actually broke the code. An article appeared in Byte magazine
  142. describing how to attach the glove as a serial device, but only allowed the
  143. glove to emulate a joystick-type input device[6]. Rather than engaging in
  144. cryptography, we phoned Chris Gentile at AGE and described our research
  145. goals. He allowed us to sign a non-disclosure agreement and within days sent
  146. us a decrypting device that allows us to use the glove as a serial device
  147. communicating over an RS232 line. AGE and VPL Research have recently
  148. announced the VPL/AGE Power Glove Education Support Program[26] and plan to
  149. provide a low cost glove with 5 degrees of freedom for between 150 and 200
  150. dollars.
  151.  
  152. The Power Glove uses two ultrasonic transmitters on the back of the user's
  153. hand and three wall-mounted receivers configured in an L-shape. The glove
  154. communicates successfully within ten to fifteen feet of the receivers when
  155. it is oriented towards them. As the glove turns away from the receivers, the
  156. signals degrades. Although some signal is received up to a 90 degree angle,
  157. Mattel claims the glove is only usable at up to roughly 45 degrees. When the
  158. glove is within five to six feet of the receivers, its (x, y, z) coordinate
  159. information is accurate to within 0.25 inches [15]. In addition to position
  160. information, the Power Glove provides roll information, where roll is the
  161. angle made by pivoting the hand around the axis of the forearm. Roll is
  162. reported in one of twelve possible positions.
  163.  
  164. Finger bend is determined from the varying resistance through materials
  165. running the length of the finger. The user's thumb, index, middle, and ring
  166. finger bend are each reported as a two-bit integer. This four-position
  167. granularity is significantly less than the resolution provided by the VPL
  168. DataGlove, but most of the gestures used in previously published virtual
  169. reality systems can be supported with only two bits per finger [2,8,11,25].
  170.  
  171. The only hardware we plan to add to our system is for voice input. Several
  172. small vocabulary, speaker-dependent input devices exist for the PC, all
  173. costing several hundred dollars. Once this is added, many of the commands
  174. currently given by hand gesture will be replaced by voice input.
  175.  
  176. All software for our system is locally developed in ANSI-standard C [12]. We
  177. have a simple version of PHIGS [10] and are using a locally developed user
  178. interface toolkit [17]. Our low-level graphics and input handling packages
  179. have been widely ported, and allow our students to develop applications on
  180. SunsTM, MacintoshesTM, or PCs before running them on the machine equipped
  181. with the head-mounted display. We are currently developing a
  182. three-dimensional glove-based object editor.
  183.  
  184. Although fast enough to be used, the limiting factor of our system's
  185. performance is the speed of line scan conversion. We draw monochrome wire
  186. frame objects, but are limited by the hardware's ability to draw lines. The
  187. hardware can render 500 vectors per second (of random orientation and
  188. length) but our CPU can execute the floating point viewing transformations
  189. for 3,500 vectors per second. In practice, we tend to use scenes with
  190. roughly 50 lines and we sustain a rate of 7 frames per second.
  191. High-performance scan-conversion boards currently exist which would
  192. substantially improve our rendering capabilities, and we expect their price
  193. to drop substantially in the coming year.
  194.  
  195. The major limitation of our system's usability is the lag of the Polhemus
  196. Isotrak. Other researchers using the Isotrak have also reported this
  197. problem; no one has precisely documented its duration, but it is within 150
  198. and 250 milliseconds[9]. Ascension Technology, Inc. recently announced the
  199. BirdTM, a $5,000 competitor to the Polhemus Isotrak with a lag of only 24
  200. milliseconds[21].
  201.  
  202. The existing system, when augmented with voice, will still cost less than
  203. $5,000 in hardware ($750 for each eye, $3,000 for the head tracker, $80 for
  204. the Power Glove, and ~$400 for the voice input). For less than the cost of a
  205. high resolution color monitor, we have added the I/O devices to support a
  206. complete virtual reality system.
  207.  
  208. RESEARCH OBSERVATIONS
  209.  
  210. Fred Brooks [5] has commented that:
  211.  
  212. "A major issue perplexes and bedevils the computer-human interface community
  213. -- the tension between narrow truths proved convincingly by statistically
  214. sound experiments, and broad `truths,' generally applicable, but supported
  215. only by possibly unrepresentative observations."
  216.  
  217. Brooks distinguishes between findings, observations, and rules-of-thumb, and
  218. states that we should provide results in all three categories, as
  219. appropriate. Most research presented to date in virtual reality are either
  220. what Brooks calls observations or rules-of-thumb, and we continue in this
  221. vein, stating our experience:
  222.  
  223. The quality of the graphics is not as important as the interaction latency
  224.  
  225. If we had to choose between them, we would prefer to decrease our tracking
  226. lag than increase our graphics capabilities. Although we have much greater
  227. spatial resolution than other head-mounted displays, this does not seem to
  228. significantly improve the quality of our system. Our experience confirms
  229. what has been discovered at VPL Research and NASA AMES research center: if
  230. the display is driven by user head motion, users can tolerate low display
  231. resolution, but notice lag in the 200 millisecond range.
  232.  
  233. Stereoscopy is not essential
  234.  
  235. Users of bi-ocular and monocular (one eye covered with a patch) versions of
  236. our system could maneuver and interact with objects in the environment.
  237. Since a straightforward implementation of stereo viewing slows down graphics
  238. by a factor of two or doubles the hardware cost, it is not always an
  239. appropriate use of resources.
  240.  
  241. A ground plane is extremely useful
  242.  
  243. Non-head-mounted virtual worlds sometimes introduce a ground plane to
  244. provide orientation [3,22]. In expensive head-mounted systems, the floor is
  245. usually implicitly included as a shaded polygon. We found the need in our
  246. system to include an artificial ground plane for reference, drawn as a
  247. rectangular grid of either lines or dots.
  248.  
  249. Display the limits of the "vehicle" to the user
  250.  
  251. In virtual reality, a user's movement is always constrained by the physical
  252. world. In most systems this manifests with the user straining an umbilical
  253. cord. Even in systems with no umbilical and infinite range trackers, this
  254. problem will still exist. Unless the user is in the middle of a large, open
  255. space the real world will limit the user's motions. In the VIEW system [7,8]
  256. a waist-level hexagon displays the range of the tracker, but is part of the
  257. world scene and does not move as the user flies. We treat the user as always
  258. residing in a "vehicle" [24]. The vehicle for a Polhemus is roughly a ten
  259. foot hemisphere. If the user wishes to view an object within the range of
  260. the vehicle, he may walk over to it, thereby changing his own location
  261. within the vehicle. If, however, the user wishes to grab an object not
  262. currently in the vehicle, he must first fly the vehicle until the desired
  263. object is within the vehicle, as shown in Figure 5. Note that the user may
  264. be simultaneously moving within the vehicle and changing the vehicle's
  265. position in the virtual world, although in practice our users do not combine
  266. these operations. For small vehicles it is probably appropriate to always
  267. display their bounds but for larger vehicles it may be better to show their
  268. bounds only when users are near the edges.
  269.  
  270. FUTURE WORK
  271.  
  272. Adding voice input will allow us to experiment with a model we have
  273. developed to support object selection via simultaneous voice and gesture
  274. input. We have already built a prototype of this selection model using a
  275. display screen in combination with voice and gesture input and will attempt
  276. to repeat those results using a head-mounted display[19].
  277.  
  278. We also will be addressing the registration problem, or the correct matching
  279. of real and synthetic objects. Until force-feedback technology improves from
  280. its current state[14,16], glove-based systems will have to use real-world
  281. objects as tactile and force feedback to the user for some tasks. For
  282. example, one could perform a virtual version of the popular magic trick
  283. "cups and balls" by moving real cups on a real table, but having arbitrary
  284. virtual objects appear under the cups. The graphics for the cups, which can
  285. be grasped and moved, must closely correspond to the real world cups. By
  286. attaching trackers to real world objects, we will study how closely the
  287. visual image must match reality to avoid user dissatisfaction. A second
  288. approach to this problem is to use the Private Eye as a heads up display,
  289. wearing it over only one eye and allowing the user to correlate the real
  290. world and synthetic graphics.
  291.  
  292. We are currently pursuing support to create a laboratory with between ten
  293. and twenty low cost virtual reality stations. By providing reasonable access
  294. to an entire graduate or undergraduate class, we suspect we may quickly
  295. develop a large number of new interaction techniques. Jaron Lanier has
  296. commented that in virtual reality, "creativity is the only thing of value"
  297. [13]. A good way to spark creative breakthroughs is to increase the number
  298. of people actively using the technology. We are also exploring the
  299. possibility of creating a self-contained, portable system based on a laptop
  300. machine.
  301.  
  302. CONCLUSIONS
  303.  
  304. The field of virtual reality research is in its infancy, and will benefit
  305. greatly from putting the technology into as many researchers' hands as
  306. possible. The virtual reality systems previously described in the literature
  307. cost more than most researchers can afford. We have shown that for less than
  308. $5,000, or five dollars per day over three years, researchers can use a
  309. head-mounted display with glove and voice input. Our system has a higher
  310. spatial resolution than any previous system, and is significantly lighter
  311. than previous systems [4,7]. For glove input, the Power Glove has provided
  312. excellent spatial accuracy and usable finger bend data. Based on experience
  313. with our system, we have found that interaction latency is significantly
  314. more important than display resolution or stereoscopy, and that the user can
  315. greatly benefit from the display of reference objects, such as a ground
  316. plane and a virtual vehicle.
  317.  
  318. ACKNOWLEDGMENTS
  319.  
  320. This work could not have proceeded without the help we received from Chris
  321. Gentile of AGE. Novak of Mattel, Inc. also provided assistance with an early
  322. draft of the paper. We would also like to thank Ronald Williams, Pramod
  323. Dwivedi, Larry Ferber, Rich Gossweiler, and Chris Long at the University of
  324. Virginia for their help.
  325.  
  326. REFERENCES
  327.  
  328. 1. Becker, A.,Design Case Study: Private Eye, Information Display, March,
  329. 1990.
  330.  
  331. 2. Blanchard, C., Burgess, S., Harvill, Y., Lanier, J, and Lasko, A.,
  332. Reality Built for Two: A Virtual Reality Tool," ACM SIGGRAPH 1990 Symposium
  333. on Interactive 3D Graphics, March, 1990.
  334.  
  335. 3. Brett, C.,Pieper, S., and Zeltzer, D., Putting It All Together: An
  336. Integrated Package for Viewing and Editing 3D Microworlds, Proceedings of
  337. the 4th Usenix Computer Graphics Workshop, October, 1987.
  338.  
  339. 4. Brooks, F., Walkthrough - A Dynamic Graphics System for Simulating
  340. Virtual Buildings, Proceedings of the 1986 ACM Workshop on Interactive
  341. Graphics, October, 1986, 9-21.
  342.  
  343. 5. Brooks, F., Grasping Reality Through Illusion: Interactive Graphics
  344. Serving Science, Proceedings of the ACM SIGCHI Human Factors in Computer
  345. Systems Conference, Washington, D.C., May 17, 1988, 1-11.
  346.  
  347. 6. Eglowstein, H.,Reach Out and Touch Your Data, Byte, July 1990, 283-290.
  348.  
  349. 7. Fisher, S.,McGreevy, M.,Humphries, J., and Robinett, M., Virtual
  350. Environment Display System, Proceedings of the 1986 ACM Workshop on
  351. Interactive Graphics, October, 1986, 77-87.
  352.  
  353. 8. Fisher, S., The AMES Virtual Environment Workstation (VIEW), SIGGRAPH `89
  354. Course #29 Notes, August, 1989. (included a videotape).
  355.  
  356. 9. Fisher, S., Personal Communication (electronic mail), Crystal River,
  357. Inc., September 28, 1990.
  358.  
  359. 10. Foley, J., van Dam, A., Feiner, S., and Hughes, J., Computer Graphics,
  360. Principles and Practices, Addison-Wesley Publishing Co., 1990.
  361.  
  362. 11.  Kaufman, A., Yagel, R. and Bakalash, R., Direct Interaction with a 3D
  363. Volumetric Environment, ACM SIGGRAPH 1990 Symposium on Interactive 3D
  364. Graphics, March, 1990.
  365.  
  366. 12. Kelley, A. and Pohl, I., A Book on C, second Edition, Benjamin/Cummings
  367. Publishing Company, Inc., 1990.
  368.  
  369. 13. Lanier, J., Plenary Address on Virtual Reality, Proceedings of UIST: the
  370. Annual ACM SIGGRAPH Symposium on User Interface Software and Technology,
  371. November, 1989.
  372.  
  373. 14. Ming, O., Pique, M., Hughes, J., and Brooks, F., Force Display Performs
  374. Better than Visual Display in a Simple 6-D Docking Task, IEEE Robotics and
  375. Automation Conference, May, 1989.
  376.  
  377. 15. Novak, Personal Communication (telephone call), January 3, 1991.
  378.  
  379. 16. Ouh-young, M., Pique, M., Hughes, J., Srinivasan, N., and Brooks, F.,
  380. Using a Manipulator For Force Display in Molecular Docking, IEEE Robotics
  381. and Automation Conference 3 (April, 1988), 1824-1829.
  382.  
  383. 17. Pausch, R., A Tutorial for SUIT, the Simple User Interface Toolkit,
  384. Technical Report Tech. Rep.-90-29, University of Virginia Computer Science
  385. Department, September 1, 1990.
  386.  
  387. 18. Pausch, R., and Williams, R., Tailor: Creating Custom User Interfaces
  388. Based on Gesture, Proceedings of UIST: the Annual ACM SIGGRAPH Symposium on
  389. User Interface Software and Technology, October, 1990, 123-134.
  390.  
  391. 19. Pausch, R., and Gossweiler, R., "UserVerse: Application-Independent
  392. Object Selection Using Inaccurate Multi-Modal Input," in Multimedia and
  393. Multimodal User Interface Design, edited M. Blattner and R. Dannenberg,
  394. Addison-Wesley, 1991 (to appear).
  395.  
  396. 20. Rabb, F., Blood, E., Steiner, R., and. Jones, H., Magnetic Position and
  397. Orientation Tracking System, IEEE Transaction on Aerospace and Electronic
  398. Systems, 15, 5 (September, 1979), 709-718.
  399.  
  400. 21. Scully, J., Personal Communication (letter), Ascension Technology, Inc.,
  401. PO Box 527, Burlington, VT 05402 (802) 655-7879, June 27, 1990.
  402.  
  403. 22. Sturman, D., Pieper, S., and Zeltzer, D., Hands-on Interaction With
  404. Virtual Environments, Proceedings of UIST: the Annual ACM SIGGRAPH Symposium
  405. on User Interface Software and Technology, November, 1989.
  406.  
  407. 23. VPL-Research, DataGlove Model 2 Users Manual, Inc., 1987.
  408.  
  409. 24. Ware, C., and Osborne, S., Exploration and Virtual Camera Control in
  410. Virtual Three Dimensional Environments, ACM SIGGRAPH 1990 Symposium on
  411. Interactive 3D Graphics, March, 1990.
  412.  
  413. 25. Weimer, D., and Ganapathy, S., A Synthetic Visual Environment with Hand
  414. Gesturing and Voice Input, Proceedings of the ACM SIGCHI Human Factors in
  415. Computer Systems Conference, April, 1989, 235-240.
  416.  
  417. 26. Zachary, G., and Gentile, C., Personal Communication (letter), VPL
  418. Research, Inc., July 18, 1990. VPL/AGE Power Glove Support Program, VPL
  419. Research, Inc., 656 Bair Island Road, Suite 304, Redwood City, CA 94063,
  420. (415) 361-1710.
  421.  
  422. 27. Zimmerman, T., Lanier, J., Blanchard, C., Bryson, S., and Harvill, Y., A
  423. Hand Gesture Interface Device, Graphics Interface `87, May, 1987, 189-192.
  424.  
  425.  
  426. --
  427. --------------------------------------------------------------------
  428. Randy Pausch (Pausch@Virginia.Edu) 804-982-2211  FAX: (804) 982-2214
  429. Assistant Professor, Computer Science Department, Thornton Hall,
  430. University of Virginia, Charlottesville, VA 22903-2442 
  431. --------------------------------------------------------------------
  432.  
  433.  
  434.  
  435.  
  436.  
  437.