home *** CD-ROM | disk | FTP | other *** search
/ Virtual Reality Zone / VRZONE.ISO / mac / TEXT / MISC / VRTERMS.TXT < prev    next >
Internet Message Format  |  1994-11-28  |  28KB

  1. From: Greg Newby <GBNEWBY@VMD.CSO.UIUC.EDU>
  2. Subject: TERMS: A Complete Virtual Reality Glossary
  3. Date: Wed, 4 Aug 1993 14:16:08 CDT
  4.  
  5.  
  6. VIRTU-L
  7.  
  8.  
  9. VIRTUAL REALITY TERMS
  10.  
  11. Joe Psotka and Sharon Davison
  12.  
  13.  
  14. 6DOF - Six degrees of freedom: Yaw, pitch, roll, up-down, left-right,
  15. front-back (or pan, zoom, swivel).
  16.  
  17. A-Buffering - Keeping track of the Z-depth of pixels to cull them
  18. before rendering.
  19.  
  20. Accelerator - specialized hardware to increase speed of graphics
  21. manipulation.
  22.  
  23. Accommodation - Change in the focal length of the eye's lens.
  24.  
  25. Actors - CAD representations of players performing actions for them,
  26. as in the Mandala system (see Agent, Character).
  27.  
  28. Accelerator - Specialized hardware to increase speed of graphics
  29. manipulation.
  30.  
  31. Affine - Any transformation composed from rotations, translations,
  32. dilatations (expansions and contractions) and shears.
  33.  
  34. Agents - CAD representations of human forms capable of guiding
  35. (Guides) navigators through a VR (see Actor, Character).
  36.  
  37. Aliasing - An undesirable jagged edge on many 3D renderings on
  38. bitmapped displays. Creates jaggies along the sides of objects and
  39. flickering of objects smaller than a pixel. (see Anti- Aliasing )
  40.  
  41. Allocentric - Other than egocentric, such as a bird's eye view, or
  42. adopting another person's viewpoint.
  43.  
  44. Ambient light - General non-directional illumination.
  45.  
  46. Anti- Aliasing removes jagged edges on bitmapped displays by
  47. interpolating neutral colors or intermediate intensities.
  48.  
  49. Articulation - Objects composed of several parts that are separably
  50. moveable.
  51.  
  52. Artificial Intelligence - The attempt to mimic and automate human
  53. cognitive skills through rules and knowledge representation techniques
  54. (e.g., understanding visual images, recognizing speech and written
  55. text, solving problems, making medical diagnoses, heuristic knowledge,
  56. etc.).
  57.  
  58. Artificial Reality - Introduced by arts and computer visualization
  59. scholar Myron Krueger in the mid-1970s to describe his computer-
  60. generated responsive environments.  Krueger has emphasized the
  61. non-intrusive (Second - Person VR) systems that track people with
  62. pattern recognition techniques and display them and the surround on
  63. projection systems (see CAVE).  As realized in his VIDEOPLACE and the
  64. Vivid Group's Mandala system, it is a computer display system that
  65. perceives and captures "a participant's action in terms of the body's
  66. relationship to a graphic world and generates responses (usually
  67. imagery) that maintain the illusion that his actions are taking place
  68. within that world." (M. Krueger, Artificial Reality, 1992) (See
  69. Virtual Reality and Cyberspace)
  70.  
  71. Aspect ratio - Ratio of width to height of the field of view.
  72.  
  73. Augmented Reality - This is the use of transparent displays worn as
  74. glasses on which data can be projected. This allows someone to repair
  75. a radar, for example, and have the needed data displayed on the
  76. glasses while walking around the radar.
  77.  
  78. Back clipping plane - A distance beyond which objects are not shown.
  79.  
  80. Backface Removal - The elimination of those polygons that are facing
  81. away from the viewer.
  82.  
  83. Backward raytracing - From the eye to the object (currently how most
  84. raytracing is done).
  85.  
  86. Binaural - Stereo sound incorporating information about the shadows at
  87. human ears and heads.
  88.  
  89. Biosensors - Special glasses or bracelets containing electrodes to
  90. monitor muscle electrical activity.  One interesting VR use is for
  91. tracking eye movements by measuring muscle movements.
  92.  
  93. BOOM - A 3-D display device suspended from a weighted boom that can
  94. swivel freely about so the viewer doesn't have to wear an HMD;
  95. instead, it steps up to the viewer like a pair of binoculars. The
  96. boom's position communicates the user's point of view to the computer.
  97.  
  98. Browser - Overviews such as indexes, lists or animated maps to provide
  99. a means of navigating through the physical, temporal, and conceptual
  100. elements of a VR.
  101.  
  102. CAVE - A VR using projection devices on the walls and ceiling to give
  103. the illusion of immersion.
  104.  
  105. Character - A being with a virtual body in virtual reality. (Walser,
  106. 1991) (see Agent, Actor)..
  107.  
  108. Concept Map - A browser or terms, definitions, or icons arranged in
  109. semantic proximity.
  110.  
  111. Convergence - The angle between the two eyes at a fixation point.
  112. This changes for objects at varying depths in the real world and on
  113. 3-D displays.
  114.  
  115. Convolvotron - A system for controlling binaural sound production in a
  116. VR.
  117.  
  118. Consensual Reality - The world, or a simulation of a world, as viewed
  119. and comprehended by a society. (Walser, 1991).
  120.  
  121. Culling - Removing invisible pieces of geometry and only sending
  122. potentially visible geometry to the graphics subsystem. Simple culling
  123. involves rejecting objects not in the view frustum. more complex
  124. systems take into account occlusion of some objects by others, e.g. a
  125. building hiding trees behind it.
  126.  
  127. Cybernetic Simulation - Dynamic model of a world filled with objects
  128. that exhibit lesser or greater degrees of intelligence.
  129.  
  130. Cyberspace - 1. A place filled with virtual "stuff" populated by
  131. people with virtual bodies. A special kind of virtual space which
  132. promotes experiences involving the whole body.  (Walser, 1991). 2. A
  133. term coined by William Gibson in his book Neuromancer (1984 a
  134. coincidental date!) to describe a shared virtual universe operating
  135. within the sum total of all the world's computer networks. (See
  136. Artificial Reality and Virtual Reality)
  137.  
  138. Cyberspace Playhouse - Social center or place where people go to play
  139. roles in simulations. (Walser, 1991).
  140.  
  141. Cyberia - see Cyberspace and a pun on Siberia; an Autodesk project and
  142. the first VR project by a CAD company.
  143.  
  144. DataGlove - A glove wired with sensors and connected to a computer
  145. system for gesture recognition. It is used for tactile feedback and it
  146. often enables navigation through a virtual environment and interaction
  147. with 3-D objects within it.
  148.  
  149. DataSpace - A visualized representation of complex information.
  150.  
  151. DataSuit - Same as a DataGlove, but designed for the entire body. Only
  152. one DataSuit has yet been built, with limited capabilities.
  153.  
  154. Deck - A physical space containing an array of instruments which
  155. enable a player to act within, and feel a part of, a virtual space.
  156. (Walser, 1991).
  157.  
  158. De-rez - Techniques to make pixels less visible in a display.
  159.  
  160. Depth Cuing - Using shading, texture, color, interposition (or many
  161. other visual characteristics) to provide a cue for the z-coordinates
  162. or distance of an object.
  163.  
  164. Direct Manipulation - A term coined by Shneiderman to reflect the use
  165. of computer icons or text as if they were real objects.
  166.  
  167. Disorientation - Confusion about distances and directions for
  168. navigation.
  169.  
  170. Dreaming - A state of mind during sleep where vivid colored imagery
  171. becomes realistic and immersive.  A natural counterpart to VR.
  172.  
  173. Droid - Puppet that embodies a human intellect (as in android).
  174. (Walser, 1991).
  175.  
  176. Dynamics - The way that objects interact and move.  The rules that
  177. govern all actions and behaviors within the environment.
  178.  
  179. Dynamic Lighting: Changes in lighting effects on objects as they and
  180. the observer move.
  181.  
  182. Force Feedback - Representations of the inertia or resistance objects
  183. have when they are moved or touched.
  184.  
  185. Effectors - The output techniques that communicate a user's movements
  186. or commands to the computer and to the VR.
  187.  
  188. Egocenter - The sense of self and personal viewpoint that determines
  189. one's location in a VR. See projection point.
  190.  
  191. Electromagnetic Forces - Effects of emf on human tissues are poorly
  192. understood and may constitute an important hazard from tracking and
  193. display devices.
  194.  
  195. Endoscopic - Part of a family of new surgical procedures that avoid
  196. cutting open major portions of the patient in favor of making small
  197. holes through which tools and sensors are inserted and the surgery
  198. performed.  In a VR or telepresence application, the surgeon
  199. manipulates the tools by observing the surgery site on a monitor via
  200. optical fibers and a tiny video camera.
  201.  
  202. Environment - This a computer-generated model that can be experienced
  203. from the "inside" as if it were a place.
  204.  
  205. Eyeball in the Hand - A metaphor for visualized tracking where the
  206. tracker is held in the hand and is connected to motion of the
  207. projection point of the display.
  208.  
  209. Eyephone - A HMD made by VPL that combines visual and auditory
  210. displays.
  211.  
  212. Eye Tracking - Devices that measure direction of gaze.  Most HMDs do
  213. not currently support eye tracking directly.
  214.  
  215. Exoskeletal Devices - In order to provide force feedback designers
  216. have added rigid external supports to gloves and arm motion systems.
  217.  
  218. Field of View - The angle in degrees of the visual field.  Most HMDs
  219. offer 60 to 90 degrees FOV.  Since our two eyes have overlapping 140
  220. degree FOV, binocular or total FOV is roughly 180 degrees in most
  221. people.  A feeling of immersion seems to arise with FOV greater than
  222. 60 degrees.
  223.  
  224. Finite element modelling - Decomposition of complex structures into
  225. small, simple elements so that engineering computations are
  226. manageable.
  227.  
  228. Fish Tank VR - With stereographic display systems attached to a
  229. monitor and the scene's virtual image behind the screen, the
  230. egocentric projection is called a fish tank.
  231.  
  232. Flat Shading - A uniform shading in which one value is applied to each
  233. facet of a polygon.
  234.  
  235. Force Feedback - The computer guides a machine to offer just the
  236. degree of resistance to motion or pressure a situation would offer in
  237. real life.
  238.  
  239. Fractal - Any function that contains elements of self-similarity
  240. (after the work of Benoit Mandelbrot).
  241.  
  242. Frustum of Vision - 3-D field of view in which all modelled objects
  243. are visible.
  244.  
  245. Gesture - Hand motion that can be interpreted as a sign or signal or
  246. symbol.
  247.  
  248. Goggles - Often used to refer to HMD or other displays.
  249.  
  250. Gouraud - Shading polygons smoothly with bilinear interpolation.
  251.  
  252. Haptic Interfaces - that use all the physical sensors that provide us
  253. with a sense of touch at the skin level and force feedback information
  254. from our muscles and joints.
  255.  
  256. Head-coupled - Displays or robotic actions that are activated by head
  257. motion through a head tracking device.
  258.  
  259. Head Tracking - Monitoring the position of the head through various
  260. devices.
  261.  
  262. Head-related transfer function - A mathematical transformation of
  263. sound spectrum that modifies the amplitude and phase of acoustic
  264. signals to take into account the shape effects of the listener's head.
  265.  
  266. Heads Up Display - (HUD) A display device that lets users see graphics
  267. superimposed on their view of the world. (Created for aviators to see
  268. symbols and dials while looking out the window.)
  269.  
  270. Hidden Surface - Parts of a graphics object occluded by intervening
  271. objects.
  272.  
  273. Holodeck - Virtual reality simulation system and place used primarily
  274. for entertainment by the crew of the Enterprise in Star Trek: The Next
  275. Generation television series.
  276.  
  277. HMD (Head Mounted display) - A set of goggles or a helmet with tiny
  278. monitors in front of each eye that generate images, seen by the wearer
  279. as being 3-D. VPL Research refers to the HMDs they sell as Eyephones.
  280.  
  281. Hypermedia - The combination of digital text, video, and sound with
  282. navigation techniques like buttons, links, and hotspots into one
  283. system.
  284.  
  285. HyperSpace - The space of hypertext or hypermedia documents.
  286.  
  287. Immersion - The feeling of presence, of "being there", surrounded by
  288. space and capable of interacting with all available objects that is
  289. the hallmark of good VR.
  290.  
  291. Impressionists - A 19th century group of artists whose paintings were
  292. directed at capturing color and mood, rather than exact perspective
  293. outlines.
  294.  
  295. Interactive Fiction - Dramatic creations that encourage user and
  296. viewer participation through computer technology, e.g. hypertext,
  297. group feedback, or VR.
  298.  
  299. Interaural Amplitude - Differences between a person's two ears in the
  300. intensity of sound.
  301.  
  302. Interaural Time - Differences between a person's two ears in the phase
  303. of sound.
  304.  
  305. Interface - A set of devices, software, and techniques that connect
  306. computers with people to make it easier to perform useful activities.
  307.  
  308. Inverse kinematics - A specification of the motion of dynamic systems
  309. from properties of their joints and extensions.
  310.  
  311. Internet - A world wide digital network.
  312.  
  313. Jack - To connect to the matrix of virtual space. (see Gibson).
  314.  
  315. Joysticks - Graphic interface devices.
  316.  
  317. Kinaesthetic Dissonance - Mismatch between feedback or its absence
  318. from touch or motion during VR experiences..
  319.  
  320. Lag - Delay between an action and its visual, acoustic, or other
  321. sensory feedback, often because of inherent delays in the tracking
  322. devices, or in the computation of the scene.
  323.  
  324. Laparoscopy (also laparoscopic surgery) - Less invasive forms of
  325. surgery that operate through small optics and instruments; lending
  326. themselves to robotic manipulation and VR training.
  327.  
  328. LBE (location based entertainment) - A VR game that involves a
  329. scenario based on another time and place; filling a studio or space
  330. with VR games.
  331.  
  332. LCD - (Liquid Crystal Display) Display devices that use bipolar films
  333. sandwiched between thin panes of glass.  They are lightweight and
  334. transmissive or reflective, and ideal for HMD.
  335.  
  336. LOD (level of Detail) - A model of a particular resolution among a
  337. series of models of the same object. Multiple LOD's are used to
  338. increase graphics performance by drawing simpler geometry when the
  339. object occupies fewer pixels on the screen. LOD selection can also be
  340. driven by graphics load, area-of-interest, gaze direction,
  341.  
  342. Magic Wand - A 3D interface device used for pointing and interaction;
  343. an elongated 3D mouse.
  344.  
  345. Metaball - A kind of "equipotential surface" around a point.  You
  346. specify a point, a radius, and an "intensity" for each ball; when
  347. balls come close, their shapes blend to form a smooth equipotential
  348. surface. They seem to be very useful for modelling shapes like animals
  349. and humans.  They can be rendered by most raytracing packages ( also
  350. "blobs" or "soft spheres" or "fuzzy spheres").
  351.  
  352. Microsurgery - A form of surgery that lends itself to robotics and VR.
  353. See also Laparoscopy.
  354.  
  355. MIDI - A digital sound standard for music.
  356.  
  357. MOO - A MUD, object-oriented.
  358.  
  359. Monitor - Display, HMD, Goggles, HUD, LCD
  360.  
  361. Motion parallax - Objects at different distance and fixation points
  362. move different amounts when the viewpoint is dollied along the x axis
  363. (left- right).
  364.  
  365. Motion Platform - A controlled system that provides real motion to
  366. simulate the displayed motion in a VR.
  367.  
  368. Motivation - A psychological need, drive, or feeling that raises the
  369. intensity of an action.
  370.  
  371. MRI - Magnetic Resonance Imaging; a way of making internal organs and
  372. structures visible by analyzing radio frequency emissions of atoms in
  373. a strong magnetic field.  Can be made 3D with rendering of large
  374. amounts of data.
  375.  
  376. MUD - A multiuser dungeon; a place on the internet where people can
  377. meet and browse (also a MOO).
  378.  
  379. Multiperson Space - 1. Multiplayer space involving 2 or more human
  380. players. 2. A type of interactive simulation which gives every user a
  381. sense that he/she, personally, has a body in a virtual space. (Walser,
  382. 1991).
  383.  
  384. Multiplayer Space - Cyberspace that emerges from simulation that is
  385. generated simultaneously by two or more decks. Players can be made up
  386. of one human and the rest AI. (Walser, 1991).
  387.  
  388. Nanomanipulation - Ability to visualize and affect objects in the
  389. nanometer range.
  390.  
  391. Navigation - Moving through virtual space without losing one's way.
  392.  
  393. Objects: Graphical entities that can be dynamically created or loaded
  394. from model files. Many functions act upon them...
  395.         
  396.     Tasks: each object performs a task per frame
  397.         Hierarchies: objects can be "linked" together
  398.         Sensors: objects can be connected to sensors
  399.         Modify: color, texture, scale, etc.
  400.         Collision Detection: between objects and polygons
  401.         Vertices: these can be dynamically created along with the
  402.     definition of a vector normal for Gouraud-shading.
  403.  
  404. Occipital Cortex - The back of the brain receiving retinotopic
  405. projections of visual displays.
  406.  
  407. Occlusion - Hiding objects from sight by interposition of other
  408. objects.
  409.  
  410. Pan - The angular displacement of a view along any axis or direction
  411. in a 3D world; or a move through translation in a 2D world.
  412.  
  413. Parietal Cortex - An area of the brain adjacent and above the
  414. occipital cortex, thought to process spatial location and direction.
  415.  
  416. Paths: objects or viewpoints can follow predefined paths that can be
  417. dynamically created and interpolated.
  418.  
  419. Perspective - The rules that determine the relative size of objects on
  420. a flat page to give the impression of 3D distance.
  421.  
  422. Phong Shading - A method for calculating the brightness of a surface
  423. pixel by linearly interpolating points on a polygon and using the
  424. cosine of the viewing angle.  Produces realistic shading.
  425.  
  426. Photorealism - An attempt to create realistic appearing images with
  427. much detail and texture.
  428.  
  429. Pitch - The angular displacement of a view along the lateral axis
  430. (front - back).
  431.  
  432. Pixel - The smallest element of a display that can be adjusted in
  433. intensity.
  434.  
  435. Polygons - An ordered set of vertices connected by sides: these can be
  436. dynamically created and texture - mapped using various sources of
  437. image data. Various hardware platforms support different texturing
  438. methods and quantities. Rendering is performed in either wireframe,
  439. smooth-shaded or textured modes.
  440.  
  441. Pop.  When an object's visible appearance suddenly changes or an
  442. object appears out of nowhere.  Usually an undesired artifact of poor
  443. LOD.
  444.  
  445. Portals - Polygons that once passed thru, automatically load a new
  446. world or execute a user-defined function.
  447.  
  448. Position trigger - A hotspot, or sensitive spot, or button, that
  449. begins a computation when touched in some way.
  450.  
  451. Presence - A defining characteristic of a good VR system, a feeling of
  452. being there, immersed in the environment, able to interact with other
  453. objects there.
  454.  
  455. Projected Reality - A VR system that uses projection screens rather
  456. than HMDs or personal display monitors.
  457.  
  458. Radiosity - A diffuse illumination calculation system for graphics
  459. based on energy balancing that takes into account the multiple
  460. reflectances off many walls.
  461.  
  462. Raytracing - A rendering system that traces the path of light from
  463. objects to light sources (see Backward Raytracing).
  464.  
  465. Real projection - A VR projection system ( a pun on rear projection).
  466.  
  467. Real-time - Appearing to be without lag or flicker (e.g. 60 cps
  468. displays; highly interactive computation).
  469.  
  470. Renaissance - A period of art dominated by the exploration of
  471. perspective.
  472.  
  473. Render - Convert a graphics object into pixels.
  474.  
  475. Resolution - Usually the number of lines or pixels in a display, e.g.
  476. a VGA display has 640 by 480 pixels.
  477.  
  478. Roll - The angular displacement of a view along the longitudinal axis
  479. (left- right).
  480.  
  481. Scan Conversion - The change of video signals from one form (e.g. RGB)
  482. to another (e.g. NTSC).
  483.  
  484. Scintillation.  The "sparkling" of textures or small objects.  Usually
  485. undesirable and caused by aliasing.
  486.  
  487. Second Person VR - The use of computational medium to portray a
  488. representation of you that is not realistic, but still identifiable.
  489. E.G. In the Mandala system a video camera allows you to see yourself
  490. as another object over which you have control by your own bodily
  491. movement.
  492.  
  493. Sensor Lagtime - Delays in the feedback or representation of your
  494. actions caused by computation in the tracker or sensor.
  495.  
  496. Sensors - Mechanisms or Functions that act to change objects in
  497. response to multiple devices connected to lights, objects, viewpoints,
  498. etc., in the real world.
  499.  
  500. Sensory Substitution - The conversion of sensory information from one
  501. sense to another; e.g. the use of auditory echoes and cues to "see"
  502. the shape of your surroundings.
  503.  
  504. Sequence (keyframe animation) - Interpolate images between stored
  505. frames (tweening).
  506.  
  507. Shaded Surface - [BLANK]
  508.  
  509. Shared Worlds - Virtual environments that are shared by multiple
  510. participants at the same location or across long distance networks.
  511.  
  512. Shutter Glasses - LCD screens or physically rotating shutters used to
  513. see stereoscopically when linked to the frame rate of a monitor.
  514.  
  515. Simnet - A prototype networked simulation system built by BBN for
  516. training military skills in tanks, helicopters, and other vehicles.
  517. Using networked graphics and displays built into physical mock-ups, it
  518. has been called a vehicle-based VR or synthetic environment.
  519.  
  520. Simulator sickness - The disturbances produced by simulators, ranging
  521. in degree from a feeling of unpleasantness, disorientation, and
  522. headaches to nausea and vomiting.  Many factors may be involved,
  523. including sensory distortions such as abnormal movement of arms and
  524. heads because of the weight of equipment; long delays or lags in
  525. feedback, and missing visual cues from convergence and accommodation.
  526. Simulator sickness rarely occurs with displays less than 60 degrees
  527. visual angle.
  528.  
  529. Sound - Accurate localization of sounds without individualized head
  530. transfer functions remains a problem.
  531.  
  532. Spatial superposition - In augmented reality displays, accurate
  533. spatial registration of real and virtual images remains difficult.
  534.  
  535. Spatial navigation - Accurate self localization and orientation in
  536. virtual spaces is not as easy as real world navigation.  Techniques
  537. for embedding navigational assists in complex dataspaces remain
  538. important research goals.
  539.  
  540. Spatial Representation System - The cortical structures and functions
  541. that maintain spatial orientation and recognition.
  542.  
  543. Spreadsheets - Early spreadsheets made the computer a valuable tool
  544. for accounting, and helped spread computers throughout industry.  What
  545. is the "spreadsheet" or commercial application that will make VR a
  546. success?
  547.  
  548. Star Trek - The fantasy rich series offers a widely known example of a
  549. VR in its "Holodeck".  Plans are also underway to use VR in a Star
  550. Trek LBE (location based entertainment).
  551.  
  552. Stereopsis - Binocular vision of images with horizontal disparities.
  553. The importance of stereopsis for immersion is not established.
  554.  
  555. Striate Cortex - Visual cortex (see Occipital, Parietal).
  556.  
  557. Supercockpit - An Air Force project led by Tom Furness that advanced
  558. the engineering and human factors of HMDs and VR.  It used digital
  559. displays of instruments and terrain.
  560.  
  561. Synthetic Environments - VR displays used for simulation.
  562.  
  563. Tactile displays - Devices like force feedback gloves, buzzers, and
  564. exoskeletons that provide tactile, kinaesthetic, and joint sensations.
  565.  
  566. Tactile stimulation - Devices like force feedback gloves, buzzers, and
  567. exoskeletons that provide tactile, kinaesthetic, and joint sensations.
  568.  
  569. Tele-existence - Remote VR.
  570.  
  571. Telemanipulation - Robotic control of distant objects.
  572.  
  573. Teleoperation - see Telemanipulation.
  574.  
  575. Telepresence - VR with displays of real, remote scenes.
  576.  
  577. Telerobotic - Robotic control of distant objects (see
  578. Telemanipulation, Teleoperation).
  579.  
  580. Telesurgery - Surgery using Teleoperation.
  581.  
  582. Terrain - Geographical information and models that can be either
  583. randomly generated or based on actual data. Dynamic terrain is an
  584. important goal for current SIMNET applications.
  585.  
  586. Texture mapping: A bitmap added to an object to give added realism.
  587.  
  588.         Detail Texture.  A texture superimposed on another texture to
  589.         increase the apparent resolution of the original texture image.  Used
  590.         when the eyepoint is so close to the textured object that the base
  591.         texture is being magnified (i.e. one texel in the texture image being
  592.         mapped to many pixels on the screen).  A detail texture, typically a
  593.         noise image, is blended into the image at a higher resolution adding
  594.         a gritty realism to the appearance of the object.
  595.  
  596. Texture Swimming - Unnatural motion of static textures on the surfaces
  597. of objects as they are rotated.  Caused by quick and dirty texture
  598. interpolation in screen coordinates.  Correctable by subdividing
  599. polygons sufficiently or by doing perspective correction.
  600.  
  601. Theater - VR opens new metaphors to explore with interactive theater.
  602.  
  603. Tracker - A device that emits numeric coordinates for its the changing
  604. position in space.
  605.  
  606. Transparency - How invisible and unobtrusive a VR system is.
  607.  
  608. Trompe l'Oeil - Perspective paintings that deceive viewers into
  609. believing they are real (e.g. a painting of the sky and clouds on the
  610. inside of a dome).
  611.  
  612. Universe - This is the "container" of all entities in a VR. Entities
  613. can be temporarily added or removed from consideration by the
  614. simulation manager. The sequence of events in the simulation loop can
  615. be user-defined.
  616.  
  617. VRactors - Virtual actors, either autonomous or telerobotic in a VR
  618. theater.
  619.  
  620. Viewpoints - Points from which raytracing and geometry creation
  621. occurs.  The geometric eye point of the simulation. You can have
  622. multiple viewpoints. They can be attached to multiple sensors.
  623.  
  624. Virtual Cadaver - A current NIH project to slice and digitize a
  625. complete human body.
  626.  
  627. Virtual patient - Telerobotic or digitized animations of humans with
  628. accurate disease models.
  629.  
  630. Virtual Prototyping - The use of VR for design and evaluation of new
  631. models.
  632.  
  633. Virtual Reality - An immersive, interactive simulation of realistic or
  634. imaginary environments. (Jaron Lanier)
  635.  
  636. Virtual Environments - Realistic simulations of interactive scenes.
  637.  
  638. Visualization - Use of computer graphics to make visible numeric or
  639. other quantifiable relationships.
  640.  
  641. Voxel - A cubic volume pixel for quantizing 3D space.
  642.  
  643. Waldo - A remotely controlled mechanical puppet (Heinlein).
  644.  
  645. Windows - On some hardware platforms, you can have multiple windows
  646. and viewpoints into the same virtual world.
  647.  
  648. Wire Frame Outlines - Displays of the outlines of polygons, not filled
  649. in.
  650.  
  651. World - Whole environment or universe.
  652.  
  653. World in the hand - A metaphor for visualized tracking where the
  654. tracker is held in the hand and is connected to motion of the object
  655. located at that position in the display.
  656.  
  657. Yaw - The angular displacement of a view around the vertical, y axis
  658. (up - down).
  659.  
  660.  
  661.  
  662.  
  663.  
  664.  
  665. ------------------------------------------------------------------
  666.  
  667. We thank many people for their help and input, particularly all the users of
  668. virtu-l and sci.virtual.worlds. Latham's dictionary was particularly
  669. useful.
  670.  
  671. Latham, R.  (1991) The dictionary of Computer Graphics Technology and
  672. Applications.  New York:  Springer - Verlag.
  673.  
  674. ------------------------------------------------------------------
  675.  
  676. Benedikt, M.  (Ed.), (1991)  Cyberspace: First Steps.  Cambridge, MA:  The MIT
  677. Press.
  678.  
  679. Earnshaw, R. A., Gigante, M. A., Jones, H.  Virtual Reality Systems, New
  680. York:  Academic Press.
  681.  
  682. Ellis, S. R.  (Ed.), (1991)  Pictorial Communication in Virtual and Real
  683. Environments.  London:  Taylor
  684. and Francis.
  685.  
  686. Kalawsky , R. (1993) The Science of Virtual Reality and Virtual
  687. Environments New York: Addison-Wesley.
  688.  
  689. Laurel, B.  (1991) Computers as theater.  New York:  Addison-Wesley Publishing
  690. Co.
  691.  
  692. Pimentel and Teixeira (1992)  Through the looking glass.  Intel.
  693.  
  694. Rheingold, H.  (1991 ) Virtual Reality. New York, Simon & Schuster.
  695.  
  696.  
  697.  
  698. I thank many people for their help and input, particularly all the users of
  699. virtu-l and sci.virtual.worlds.
  700.