home *** CD-ROM | disk | FTP | other *** search
/ TopWare 18: Liquid / Image.iso / liquid / top2062 / bnchmark.txt next >
Text File  |  1993-02-17  |  17KB  |  381 lines

  1.    Windows Graphics Benchmarks -- Problems and Solutions
  2.                      February 17, 1993
  3.  
  4.      This paper is intended to shed light on a problem that 
  5. has arisen in the graphics board market:  The reliability of 
  6. Winbench, an important test used to judge the performance of 
  7. Windows accelerators, has been compromised due to 
  8. manufacturers' ability to engineer inflated test results.  
  9. The developers of the WinBench test, Ziff-Davis, have 
  10. recognized the problem, and are currently working to revise 
  11. WinBench.  However, many consumers continue to use WinBench 
  12. as their exclusive measure of Windows graphics performance.  
  13. This paper suggests alternative benchmarks that should be 
  14. part of a complete test suite, even after a revised version 
  15. of WinBench is available.
  16.  
  17.      The problem with Winbench arose when a graphics board 
  18. manufacturer discovered a way to design its Windows driver 
  19. software to inflate the test results without, however, a 
  20. commensurate increase in real-world performance.  In its 
  21. current versions, WinBench is susceptible to such 
  22. manipulation because it is largely a repetitive, non-random 
  23. test.  Given these characteristics, developers have been 
  24. able to produce maximum scores by programming the graphics 
  25. driver to ignore repeated calls to execute the same 
  26. operation.  Also, bitmaps, patterns, and text strings can be 
  27. cached to dramatically improve Winbench results without 
  28. increasing performance in real applications.
  29.  
  30.      In a highly competitive environment, manufacturers 
  31. constantly refine their products to gain a competitive 
  32. advantage.  As a result of the industry's emphasis on this 
  33. easy-to-use test, the graphics WINMARK has become an 
  34. important weapon in the graphics board marketing war.  
  35. Predictably, "benchmark aware drivers" with artificially 
  36. inflated WINMARK scores have become a common phenomenon.  
  37. The problem is that users can no longer reliably estimate 
  38. real-world performance on the basis of these WINMARK scores.
  39.  
  40.      Hercules recommends that consumers evaluate Windows 
  41. graphics performance using both their intended applications 
  42. and two other simple benchmark tests, WinTach and Speedy, 
  43. discussed below.  After careful study of the methods used to 
  44. make display drivers "benchmark aware", Ziff-Davis is 
  45. revising Winbench.  The new version, dubbed v3.11, is 
  46. intended to thwart the techniques that have been employed to 
  47. inflate currently available versions of WinBench (v2.5 and 
  48. v3.1).  Hercules looks forward to the general availability 
  49. of this new test, and hopes to be able to recommend it as a 
  50. reliable measure of graphics performance.
  51.  
  52.  
  53. Alternatives to WinBench
  54.  
  55.      WinTach and Speedy differ from WinBench in that they do 
  56. not concentrate on tight-loop iterative testing.  Unlike 
  57. current versions of WinBench that, for example, draw a line 
  58. multiple times in the same place on the screen in order to 
  59. measure line drawing speed, WinTach and Speedy execute a 
  60. wide variety of different commands in a long sequence. This 
  61. makes it much more difficult for driver developers to 
  62. "special-case" the test and artificially inflate its 
  63. results.
  64.  
  65.      It is in the consumer's interest to employ as many 
  66. tests as are available when judging graphics performance.  
  67. Every test has a particular scope and embodies a point of 
  68. view reflected in the decisions of its author.  To form a 
  69. representative picture, the consumer should use as many 
  70. thoughtfully designed tools as are available.  Both WinTach 
  71. and Speedy can be distributed freely, allowing users to 
  72. evaluate performance for themselves in their own systems.
  73.  
  74.  
  75. Using Benchmark Tests
  76.  
  77.      In order to get an accurate measure of performance, it 
  78. is important to test different devices in the same or 
  79. parallel configurations.  For example, the results of a test 
  80. delivered when running in 1204 x 768 by 256 color resolution 
  81. should not be compared with the results of a test run at 640 
  82. x 480 by 256 colors.  Neither should tests taken using 
  83. different CPU platforms (e.g. a 386/25 and a 486/33) be 
  84. compared unless relative performance of similarly configured 
  85. computers is the object of the test.  Color depth must not 
  86. be overlooked, comparing 1024 x 768 by 16.7 million color 
  87. operation to 1024 x 768 by 256 color operation is only 
  88. meaningful if the relative difference between the 
  89. performance of the two color depths is the object of the 
  90. test.  Be careful to compare apples to apples or know that 
  91. the apple to orange comparison is your objective.
  92.  
  93.      Refresh rates are also a consideration in graphics 
  94. performance.  Although qualitative factors like the 
  95. intensity and stability of the display are not reflected in 
  96. benchmark scores, they do have a significant impact on a 
  97. user's experience.  In many cases, increasing the refresh 
  98. rate brings down graphics benchmark numbers, especially on 
  99. DRAM-based boards.  When comparing two devices, one 
  100. operating at 80Hz refresh and the other operating at 60Hz 
  101. refresh, be sure to cite this difference.
  102.  
  103.      In describing a test result, be diligent about 
  104. including all the information that makes it possible to 
  105. compare your results with others:  "Graphics accelerator X 
  106. delivered a benchmark result of Y when run in 1024 x 768, 
  107. 256 color mode (large fonts) at 72Hz refresh rate on a '486-
  108. 33 ISA-bus computer with 8MB of system memory."  There are 
  109. often other variables that affect performance such as disk 
  110. or memory cache, the presence of ATM, whether the system is 
  111. running from a network, the degree of disk fragmentation, 
  112. and numerous other factors.  Whenever possible, use the same 
  113. system to compare multiple devices in order to reduce the 
  114. number of variables that may not be consistent between 
  115. different systems.
  116.  
  117.  
  118. A Description of the Tests
  119.  
  120. WinTach
  121.  
  122.      WinTach was produced in 1992 by Texas Instruments. The 
  123. developers of WinTach profiled four typical Windows 
  124. application types to characterize the API (Application 
  125. Programming Interface) calls that typify these programs.  
  126. WinTach combines these API calls with real-world program 
  127. logic in order to simulate the performance of the Windows 
  128. system under test running these applications:
  129.  
  130. Word Processing
  131.      Applications centered around the creation of text 
  132. documents that use a variety of fonts, styles, and 
  133. formatting options. Although the largest percentage of time 
  134. in a word processor is spent on text entry, graphics 
  135. performance is needed when large amounts of text are 
  136. repeatedly redrawn, such as when a page is scrolled.
  137.  
  138. CAD/Drawing
  139.      Applications centered around the creation of technical 
  140. drawings or illustrations where the computer's power is used 
  141. to store and manipulate a large number of drawing objects. 
  142. While the largest percentage of time in a drawing 
  143. application is spent entering drawing elements, graphics 
  144. performance is needed when the drawing must be re-generated, 
  145. re-sized, or scrolled.
  146.  
  147. Spreadsheet
  148.      Applications centered around the management of tabular 
  149. data.  While a large amount of time is spent entering data, 
  150. the primary graphics performance requirement is in scrolling 
  151. to the various parts of the spreadsheet.  Graphing the 
  152. numerical data contained in the spreadsheet is another 
  153. operation that increases graphics performance demands.
  154.  
  155. Paint
  156.      Applications centered around the creation and 
  157. manipulation of bitmapped images.  Color depth is the most 
  158. important determinant of image quality, but a variety of 
  159. graphics primitives are employed to modify images.  Common 
  160. operations include lines, rectangles, floodfills, and 
  161. freehand drawing with different brush styles.
  162.  
  163.      When executed, WinTach evaluates the graphics system  
  164. and displays the results as the "RPM," or Relative 
  165. Performance Measurement.  This RPM index is calculated for 
  166. each individual application, indicating the system's 
  167. performance executing that class of application, as well as 
  168. for overall performance (a simple average of the four 
  169. individual application indices).  The RPM index is scaled to 
  170. regard both the resolution and color depth of the test 
  171. environment.  The program itself contains a complete 
  172. explanation of the RPM calculation.  This explanation is 
  173. found in the WinTach Overview available from the program's 
  174. Help menu under the topic entitled Calculation of the 
  175. WinTach RPM Index.  The RPM index enables the user to easily 
  176. compare the graphics performance of different Windows 
  177. workstations or graphics adapters.
  178.  
  179.      WinTach contains a very thorough on-line explanation 
  180. that includes a breakdown of the specific Windows GDI calls 
  181. made by the four application benchmarks, ranked by call 
  182. frequency.
  183.  
  184.      Because Texas Instruments, the developer of the TMS340 
  185. family of graphics chips, created WinTach it has been 
  186. criticized as being inherently biased towards T.I.'s own 
  187. graphics processors.  At Hercules, we have not found this to 
  188. be the case.  Hercules' product line includes both TMS34020-
  189. based boards and IIT AGX-based boards.  We have found the 
  190. relative strengths of both designs to be accurately 
  191. reflected in their WinTach results.  The test measures the 
  192. efficiency of a graphics board and its driver executing 
  193. standard API calls regardless of the board's underlying 
  194. architecture.  If, however, you are concerned that WinTach 
  195. unfairly favors T.I.-based products, simply do not use it to 
  196. compare a T.I.-based board with a non-T.I.-based board.
  197.  
  198.      Another criticism of WinTach is that the weighting of 
  199. API calls does not accurately reflect real-world 
  200. applications.  As a component test, (a test which focuses on 
  201. graphics operations as opposed to system operations as a 
  202. whole) WinTach is an excellent relative measure.  By running 
  203. WinTach on two different boards or drivers at the same 
  204. resolution and color depth in the same machine, you'll 
  205. collect reliable data descriptive of the relative 
  206. performance of the two devices and/or drivers.  How closely 
  207. WinTach mirrors the behavior of actual applications is a 
  208. separate question from the comparative analysis of graphics 
  209. sub-system performance.  In practice, we have found the 
  210. relative performance ranking of boards tested with WinTach 
  211. to remain unchanged when the same boards are tested using 
  212. much more involved application scripts.
  213.  
  214.  
  215. Speedy
  216.  
  217.      Speedy can be used in a variety of ways to compare the 
  218. relative performance of different graphics hardware and 
  219. display driver combinations.  Speedy tests a wide range of 
  220. Windows Graphics Device Interface (GDI) calls and delivers a 
  221. single SPEEDMARK number for comparison with other 
  222. systems/devices running Speedy.  Speedy exercises all of the 
  223. raster operations defined in the GDI and so is also a good 
  224. test of the completeness and compatibility of a display 
  225. driver. 
  226.  
  227.      Speedy was developed by Hercules to illustrate the 
  228. strengths of more advanced graphics boards.  There are two 
  229. main areas in which Speedy differs from other graphics 
  230. performance benchmarks.  First, in contrast to WinBench and 
  231. WinTach whose individual tests run sequentially, Speedy 
  232. tests multiple applications executing in parallel.  This 
  233. parallelism, together with the use of random coordinates 
  234. inside each individual test, makes it very difficult to 
  235. enhance a display driver specifically to improve the Speedy 
  236. test result.  
  237.  
  238.      Additionally, significant stress is added to the test 
  239. when a display driver is required to juggle multiple device 
  240. contexts.  The availability of multiple applications running 
  241. simultaneously is one of the defining characteristics of the 
  242. Windows operating system.  The degree to which the CPU can 
  243. off-load graphics tasks and go about other chores, such as 
  244. calculating pixels-per-second, is part of the performance 
  245. advantage of a Windows graphics accelerator.
  246.  
  247.      The second difference is that Speedy ramps through 
  248. colors using Windows' RGB model regardless of the actual 
  249. pixel depth of the display adapter.  This means that a 256 
  250. color driver will need to dither in order to simulate colors 
  251. that are not available in its palette.  Other benchmark 
  252. tests do not concern themselves with color depth so that 
  253. executing on a 16.7 million color device is not visually 
  254. different or more demanding of a display driver than 
  255. executing on a 16 color device.
  256.  
  257.      The most straightforward use of the Speedy program is 
  258. to choose Auto Run from the Control menu (or press the F2 
  259. key).  Speedy will fill the screen with eight graphics 
  260. applications running in parallel and deliver a number in the 
  261. center of the screen.  After 70 seconds of operation, a 
  262. SPEEDMARK number will also appear in the center window.  To 
  263. terminate Speedy press the F10 key or choose Kill...Kill All 
  264. Instances from the Control menu of any of the running 
  265. applications.
  266.  
  267.      When Speedy is launched and Auto Run selected, the 
  268. number in the center of the screen represents the total 
  269. number of pixels-per-second written by the eight separate 
  270. applications, divided by 100,000.  This number is computed 
  271. once every second.  After Speedy has been running for 70 
  272. seconds a mean is calculated and presented as the SPEEDMARK 
  273. rating.  The mean calculation does not include the first ten 
  274. seconds of operation which typically will involve 
  275. initialization and font caching.  This initialization period 
  276. will be noticed as the test appearing to stutter before 
  277. proceeding steadily.  Although the test may continue to run 
  278. indefinitely, the SPEEDMARK rating will not change after it 
  279. is presented.
  280.  
  281. The following applications make up Speedy's Auto Run test:
  282.  
  283. MemToScr is a memory to screen Bit Block Transfer (BitBlt) 
  284. test which measures the efficiency with which the display 
  285. hardware/driver combination transfers bitmapped data from 
  286. host memory to screen memory.
  287.  
  288. PolyHatch measures the efficiency of the display 
  289. hardware/driver combination when drawing polygons that are 
  290. filled with a pattern.
  291.  
  292. ScrToScr is a screen to screen BitBlt test measuring the 
  293. efficiency with which the display hardware/driver 
  294. combination can relocate bitmapped data from one part of the 
  295. screen to another.
  296.  
  297. VecSolid tests the efficiency of the display hardware/driver 
  298. combination when drawing solid lines of varying colors.
  299.  
  300. Rops is a test that exercises all 256 raster operations as 
  301. defined in the Windows GDI.  A raster operation is a 
  302. definition of how the bits in a source bitmap are logically 
  303. combined with the bits in a destination bitmap.
  304.  
  305. Fonts tests the efficiency of the display hardware/driver 
  306. combination when "realizing" or writing several True Type 
  307. character sizes and colors.
  308.  
  309. VecStyle tests the efficiency of the display hardware/driver 
  310. combination when drawing lines of varying colors and 
  311. patterns.
  312.  
  313. PolySolid measures the efficiency of the display 
  314. hardware/driver combination when drawing polygons that are 
  315. filled with solid colors.  Since the specified color may not 
  316. be available in the current color palette, this call may 
  317. require the driver to present a dithered color to most 
  318. closely simulate the specified color.
  319.  
  320. In addition to the tests included in Speedy's Auto Run the 
  321. following test is also available.
  322.  
  323. DIBToScreen tests the efficiency of the display 
  324. hardware/driver combination when managing BitBlts where the 
  325. source bitmap is not stored in the same format as the screen 
  326. bitmap.  This call tests the decoding ability of the driver.
  327.  
  328.  
  329. Obtaining the Tests
  330.  
  331.      If you do not already have the tests, Both WinTach and 
  332. Speedy are available on the Hercules Computer Technology 
  333. BBS:
  334.                  (510) 623-7449 (V.32bis)
  335.                    (510) 623-7034 (V.32)
  336.                 (510) 623-7142 (1200/2400)
  337.  
  338.      From the main menu of the Hercules BBS, simply press 
  339. "D" to initiate a download and specify the file name, either 
  340. WINTACH.ZIP or SPEEDY.ZIP.
  341.  
  342.      At Hercules, we are interested in your graphics 
  343. performance.  Run WinTach and Speedy on your computer, print 
  344. out this section of the document, fill out the information 
  345. below and fax it to us at (510) 623-1112.
  346.  
  347. Hercules Graphite Card (model HG210) Benchmark Test Results
  348.  
  349. Testing 1024 x 768 x 256 color resolution at 72Hz refresh 
  350. rate on a Compaq Deskpro/i with 8MB of memory.  Using 
  351. AGX.DRV with the large fonts option selected.
  352.  
  353.     Processor            WinTach           Speedy
  354.      386DX/25             16.78             16.57
  355.      386DX/33             20.06             19.48
  356.      486DX/33             28.46             25.67
  357.      486DX2/66            34.16             28.62
  358.  
  359. ==========================================================
  360.  
  361. My Name -_______________________
  362.  
  363. My System -
  364. Manufacturer:___________________        Model:____________
  365.  
  366. Processor:__________  Speed:__________  Memory:___________
  367.  
  368. My Graphics -
  369. Manufacturer:________________   Model:____________________
  370.  
  371. Resolution:_________  # of Colors:_______  Refresh:_______
  372.  
  373. Driver (Named in WinTach):_______________________
  374.  
  375. WinTach RPM: ___________           SpeedMark: __________
  376.  
  377. Please provide me with more information about Hercules 
  378. graphics accelerators by (circle your preference) calling, 
  379. faxing, writing, e-mailing me at:
  380.  
  381.