WO1995035139A1 - Simulateur 3d et procede de generation d'image - Google Patents

Simulateur 3d et procede de generation d'image Download PDF

Info

Publication number
WO1995035139A1
WO1995035139A1 PCT/JP1995/001203 JP9501203W WO9535139A1 WO 1995035139 A1 WO1995035139 A1 WO 1995035139A1 JP 9501203 W JP9501203 W JP 9501203W WO 9535139 A1 WO9535139 A1 WO 9535139A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
image
information
texture
dimensional space
Prior art date
Application number
PCT/JP1995/001203
Other languages
English (en)
French (fr)
Inventor
Takahiro Kakizawa
Takashi Yano
Original Assignee
Namco Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd. filed Critical Namco Ltd.
Priority to GB9603483A priority Critical patent/GB2295757B/en
Priority to US08/596,236 priority patent/US5966132A/en
Priority to JP8501944A priority patent/JP3056256B2/ja
Publication of WO1995035139A1 publication Critical patent/WO1995035139A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • A63F13/245Constructional details thereof, e.g. game controllers with detachable joystick handles specially adapted to a particular type of game, e.g. steering wheels
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/42Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of patterns using a display memory without fixed position correspondence between the display memory contents and the display position on the screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1062Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to a type of game, e.g. steering wheel
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6615Methods for processing data by generating or executing the game program for rendering three dimensional images using models with different levels of detail [LOD]
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6669Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera using a plurality of virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character change rooms
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying

Definitions

  • the present invention relates to a three-dimensional simulator device and an image synthesis method capable of simulating a virtual three-dimensional space.
  • the player 302 can view, in real time, a pseudo three-dimensional image of a change in his / her own viewpoint position, line of sight, or a change in the scenery or the like accompanying a change in the position or direction of the moving body on which the player is riding. In other words, you can experience virtual 3D space in a simulated way.
  • FIG. 25 (B) shows an example of a display screen formed by the above three-dimensional simulator.
  • the present invention has been made to solve the above technical problems, and an object of the present invention is to form a sub-screen full of realism on a main screen and to form this sub-screen. Is to provide a three-dimensional simulator device and an image synthesizing method which do not significantly affect the image synthesizing process of the main screen.
  • a three-dimensional simulator apparatus configured to perform a calculation operation of forming a virtual three-dimensional space by setting the positions or positions and directions of a plurality of display objects constituting a virtual three-dimensional space.
  • Virtual three-dimensional space calculation means
  • the virtual three-dimensional space calculation means is:
  • An image to be displayed on the main screen in the virtual 3D space Means for synthesizing a view image in a virtual three-dimensional space having a large number of polygons,
  • the display object A plurality of virtual three-dimensional spaces, for example, first and second virtual three-dimensional spaces, having the same position or the same position and direction but different numbers of polygons constituting a display object are formed.
  • a display object having a smaller number of polygons than the display object in the first virtual three-dimensional space has the same position and the same direction (position) as the display object in the first virtual three-dimensional space.
  • position For display objects for which only is specified, only the position is placed in the same).
  • a view image in the first virtual 3D space having a large number of polygons of the display object is displayed on the main screen, and a view image in the second virtual 3D space having a small number of polygons of the display object is displayed. It will be displayed on the sub screen.
  • a virtual three-dimensional space is formed in the same manner as the formation of the main screen in the formation of the sub-screen without significantly deteriorating the quality of the image projected on the main screen.
  • the view image can be synthesized, and both the main screen and the sub screen with a high sense of realism can be displayed with limited computational processing capability.
  • a back mirror, a side mirror, or an image of a moving object viewed from above can be displayed on the main screen.
  • an operation is performed to obtain an image of the operator's view in the backward direction, and to invert this view image from side to side.
  • the present invention provides a texture calculating means for performing a calculation for applying a texture to a polygon constituting a display object
  • Texture information storage means for storing information on textures applied in said texture calculation means
  • the texture calculation means includes:
  • Means for commonly using the texture information stored in the texture information storage means for a part or all of the display object having the same position or the same position and direction in the different virtual three-dimensional space It is characterized by. According to the present invention, it is not necessary to separately prepare texture information for each display object in different virtual three-dimensional spaces, and the storage capacity required for the texture information storage means can be saved. As a result, the cost of the apparatus can be reduced. Furthermore, according to the present invention, texture matching is performed on the display object for the sub-screen using the common texture information, so that the realism of the image displayed on the sub-screen can be enhanced similarly to the main screen. Can be. This can create unprecedented visual effects and enhance the fun of the game. In the present invention, it is not necessary to use the texture information in common for all the displayed objects, and another texture information may be prepared for a material that causes distortion or the like due to the common use.
  • the three-dimensional display device sets object number and position information or display object information including object number and position information and direction information of a plurality of display objects constituting a virtual three-dimensional space.
  • Virtual three-dimensional space calculation means for performing formation calculation of the virtual three-dimensional space by
  • Image information storage means for storing image information of an object specified by the object number
  • Image synthesizing means for synthesizing a view image from an arbitrary viewpoint in a virtual three-dimensional space based on the display object information and the image information read out from the image information storage means based on the object number.
  • the virtual three-dimensional space calculation means is:
  • Means for forming a plurality of display object information having the same position information or the same position information and direction information but different object numbers
  • the image information storage means stores the image information such that the number of polygons constituting an object is different for an object designated by the different object number,
  • one or more sub- Means for synthesizing a view image displayed on the surface Based on image information of an object with a small number of polygons, one or more sub- Means for synthesizing a view image displayed on the surface.
  • a plurality of display object reports for example, first and second display object reports, having the same position information and different object numbers are formed. Then, for example, for the object specified by the object number of the first display object information, the image information is formed so that the number of polygons is large. On the other hand, for an object specified by the object number of the second display object information, image information is formed such that the number of polygons is small. Then, the view image displayed on the main screen is synthesized based on the image information read based on the object number of the first display object information, and the image information read based on the object number of the second display object information The view image displayed on the sub-screen is synthesized based on.
  • the main screen can be represented by an object composed of many polygons
  • the sub-screen can be represented by an object composed of a small number of polygons.
  • the number of polygons required for forming the sub-screen can be reduced without significantly deteriorating the quality of the image projected on the main screen, and real-time image processing can be maintained.
  • the sub-screen is formed by synthesizing a view image from an arbitrary viewpoint in the virtual three-dimensional space using the display object information and the object image information, similarly to the formation of the main screen. Realism of the image displayed on the surface can also be enhanced.
  • the image information storage means stores image information of a plurality of objects having different numbers of polygons
  • the selection range of the object for synthesizing the view image of the main screen is larger than the selection range of the object for synthesizing the view image of the sub screen, the selection range including more objects having a large number of polygons. It is characterized by the following.
  • image information of a plurality of objects having common position information and the like and different numbers of polygons for example, image information of first, second, and third objects is prepared.
  • the first object has the largest number of polygons
  • the third object has the smallest number of polygons.
  • the view images are combined based on the image information of the first, second, and third objects.
  • the second and third objects are selected from the first, second, and third objects, and the second and third objects are selected.
  • a view image is synthesized based on the image information.
  • objects for long distance, medium distance, and short distance can be used properly according to distance
  • objects for medium distance and short distance can be used properly according to distance. Processing can be performed. This makes it possible to reduce the number of polygons necessary for forming the sub-screen as a whole from the number of polygons necessary for forming the main screen. As a result, it is possible to display a real image on the sub-screen without significantly affecting the image synthesis processing on the main screen.
  • the virtual three-dimensional space calculating means includes:
  • objects such as buildings displayed on the main screen are not displayed on the sub-screen. Since the screen size of the sub screen is usually smaller than that of the main screen, even if the display of some objects is omitted as described above, the player or the like does not notice. On the other hand, by omitting the display on the sub-screen for some objects, it is possible to reduce the number of polygons required for forming the sub-screen.
  • the present invention includes means for dividing a map constituting a virtual three-dimensional space into a predetermined number, and displaying a map by arranging a map object on the divided map,
  • the number of divisions of the map displayed on the main screen is larger than the number of divisions of the map displayed on the sub-screen.
  • the present invention it is possible to display a precisely represented map on the main screen and to display a simplified map on the sub-screen. It is possible to do. As a result, the number of polygons required for forming the sub-screen can be reduced, and a realistic image can be displayed on the sub-screen without significantly affecting the image composition processing of the main screen.
  • the present invention provides a texture calculating means for performing a calculation for applying a texture to a polygon constituting an object
  • Texture information storage means for storing information on textures applied in said texture calculation means
  • the image information storage unit stores vertex texture coordinates for designating the texture information in the texture information storage unit as a part of the image information
  • the texture calculation means includes:
  • FIG. 2 is a schematic diagram showing an example of the external appearance of the three-dimensional simulator device.
  • FIG. 3 is a schematic diagram showing an example of a virtual three-dimensional space.
  • FIG. 4 is a schematic diagram showing a game screen (pseudo three-dimensional image) synthesized by the three-dimensional simulator device.
  • FIG. 5 is a block diagram showing an example of a virtual three-dimensional space calculation unit.
  • FIG. 6 is a schematic explanatory diagram for explaining display object information stored in a display object information storage unit.
  • FIG. 7 is a schematic explanatory diagram for explaining display object information set for an object.
  • FIGS. 8 (A) and (B) are schematic explanatory diagrams for explaining a plurality of display object information items having the same position information and direction information but different object numbers.
  • FIG. 9 is a diagram showing a plurality of types of racing car objects having different numbers of polygons.
  • FIG. 11 shows an example of a course object composed of a small number of polygons.
  • FIG. 12 is a diagram showing a map divided into a plurality of map blocks.
  • FIG. 13 is a diagram schematically showing a map object arranged in a map block.
  • FIG. 14 is a diagram showing a plurality of types of map blocks having different numbers of divisions.
  • FIG. 16 is a schematic explanatory diagram for describing the three-dimensional calculation processing in the present embodiment.
  • FIGS. 17 (A) and (B) are diagrams showing an example of a data format formed by the data format forming section.
  • FIG. 18 is a block diagram showing an example of the image synthesizing unit.
  • FIG. 19 is a schematic explanatory diagram for explaining the texture matting method.
  • FIGS. 20 (A) to (K) are diagrams visually illustrating the texture matching method in the present embodiment.
  • FIG. 22 is a diagram illustrating an example of a texture storage plane configured by a texture information storage unit.
  • FIGS. 23 (A) and (B) show examples of map objects arranged in the first and second virtual three-dimensional spaces, and FIG. 23 (C) shows these map objects.
  • FIG. 4 is a diagram showing an example of texture information to be mapped to a texture plane and a texture plane in which the texture information is stored.
  • FIG. 24 is a schematic explanatory diagram for explaining another application example of the sub screen.
  • FIG. 25 (A) is a schematic explanatory view for explaining the concept of the three-dimensional simulator, and FIG. 25 (B) shows an example of a screen formed by the three-dimensional simulator.
  • FIG. 25 (B) shows an example of a screen formed by the three-dimensional simulator.
  • the three-dimensional game realized by this three-dimensional simulator device runs on a moving object, for example, a player racing car, on a course formed on a map, and the opponent's racing car operated by another player, the combination This is a racing car game that competes with the car you operate.
  • FIG. 2 shows an example of an external view of the present three-dimensional simulator device. As shown in the figure, the three-dimensional simulator is formed in the same way as the driver's seat of an actual racing car. Then, the player sits on the seat 18 and looks at the game screen (a pseudo three-dimensional image of the scenery seen from the driver's seat of the racing car) projected on the CRT (display) 10 to the operation unit 12. Operate the fictitious racing car by operating the provided steering wheel 14, accelerator 15 and shift tolever 16 to play the game.
  • FIG. 3 shows an example of a virtual three-dimensional space in the present three-dimensional game.
  • the three-dimensionally formed courses 20 are arranged.
  • three-dimensional objects such as buildings 60, tunnels 62, mountains 64, cliffs 66, and walls 68 are arranged.
  • the player operates the racing car while watching the CRT 10 showing these courses.
  • start from start point 70 and go around course 20 After a predetermined number of laps of the course, the goal is reached and the player's ranking is determined.
  • FIG. 4 shows an example of a game screen displayed on T10 in the present three-dimensional game. As shown in FIG.
  • an opponent racing car 52 is displayed on the main screen 1, and the player competes with the opponent's racing power 52 while watching the main screen 1.
  • the main screen 1 shows a road surface 21, a tunnel wall 22 and the like in addition to the opposing racing car 52.
  • a back mirror (sub screen) 2 is further displayed, and by looking at the rear-view mirror 2, the breaker can see that the computer power — 54 is chasing from behind. Can be recognized. This can greatly enhance the realism and fun of the game.
  • a road surface 23 and a wall 24 are projected as in the main screen.
  • the road surface 23 shown in the knock mirror 1 has an asphalt-like pattern, similar to the road surface 21 on the main screen 1, and the Senyuichi line 26 is also drawn. .
  • the images reflected in No. 1 and 2 are also full of reality, similar to the main screen 1.
  • the tail lamp etc. of the opponent racing car 52 on the main screen 1 are drawn in detail, and the shape of the opponent racing car 52 is drawn precisely so as to be close to a live-action photograph Have been.
  • the combination car 5 4 reflected in the back-mirror 1 is more simplified than the opposing racing car 52.
  • a virtual three-dimensional space for drawing the main screen 1 and a virtual three-dimensional space for drawing the pack mirror (sub screen) 2 are separately prepared.
  • the rear-view mirror 2 has succeeded in projecting an image with a realistic feeling as well as the main screen 1.
  • the back mirror 1 2 has a smaller display range than the main screen 1, and the player does not notice even if the precision of the displayed object is reduced to some extent.
  • the number of polygons constituting the display object on the mirror 2 is smaller than that of the display object on the main screen 1.
  • FIG. 1 is a block diagram showing an embodiment of a three-dimensional simulation apparatus according to the present invention.
  • the present 3D simulator apparatus includes an operation unit 1 2 to which a player inputs an operation signal, and a virtual 3D space operation unit 1 for performing an operation for setting a virtual 3D space by a predetermined game program. 0, an image synthesizing section 200 for forming a pseudo three-dimensional image at the viewpoint position of the player, and a CRT (display) 10 for outputting the pseudo three-dimensional image as an image.
  • the virtual three-dimensional space calculation unit 100 a plurality of display objects in the virtual three-dimensional space shown in FIG. 3, for example, a course 20, a building 60, a tunnel 62, a mountain 64, a wall 66 to 68, a player A calculation is performed to set the position or position and direction of the racing car, the opponent's racing car, the computer, etc. This calculation is performed based on an operation signal from the operation unit 12, map information set and stored in advance, and the like. Then, the image synthesizing unit 200 performs an operation of synthesizing a view image from an arbitrary viewpoint in the virtual three-dimensional space based on the operation result from the virtual three-dimensional space operation unit 100. Then, the synthesized view image is output from CRT10.
  • the position of the display object or the position and the direction of the display object are the same, and the first and second virtual A three-dimensional space is formed. That is, two virtual three-dimensional spaces are prepared as shown in FIG. However, the number of polygons constituting the display object differs between the two virtual three-dimensional spaces, and the number of polygons of the display object in the first virtual three-dimensional space is set to be larger. Then, in the image synthesis unit 200, the main A view image in the first virtual three-dimensional space is synthesized as an image displayed on the screen. On the other hand, a view image in the second virtual three-dimensional space is synthesized as an image displayed on the sub screen. This makes it possible to form a game screen as shown in FIG.
  • the sub-screen When the sub-screen is used as the pack mirror 2, it becomes as follows. That is, in the first virtual three-dimensional space, a field-of-view image is formed in the case where the viewpoint position is the position of the player power and the line of sight is forward. On the other hand, in the second virtual three-dimensional space, a field-of-view image is formed when the line of sight is directed backward. Then, the visual field image calculated in the second virtual three-dimensional space is horizontally inverted, and is displayed on the knock mirror 2.
  • FIG. 5 shows an example of a block diagram of the virtual three-dimensional space calculation unit 100.
  • FIGS. 15 and 18 show an image supply unit 210 and an image formation unit in the image synthesis unit 200.
  • An example of the block diagram of 228 is shown.
  • the processing unit 102 controls the entire three-dimensional simulator device. Further, a predetermined game program is stored in a storage unit provided in the processing unit 102.
  • the virtual three-dimensional space calculation unit 100 performs calculation of the virtual three-dimensional space setting according to the game program and operation signals from the operation unit 12.
  • the movement information of the racing car is calculated according to the operation signal from the operation unit 12, the instruction from the processing unit 102, and the like.
  • the display object information storage unit 108 stores the position information and direction information of the display object constituting the virtual three-dimensional space and the object number of the object to be displayed at this position (hereinafter, this storage is performed). Position information 'The direction information and the object number are called display object information (object information).)
  • FIG. 6 shows an example of display object information stored in the display object information storage unit 108.
  • Figure 7 also shows these displays The relationship between the position information and direction information (Xm, Ym, Zm, ⁇ ui, 0m, pm) included in the object information and the absolute coordinate system (Xw, Yw., Zw) is shown.
  • the display object information stored in the display object information storage unit 108 is read by the virtual three-dimensional space setting unit 104.
  • the display object information storage unit 108 stores the display object information in the frame immediately before the frame.
  • the virtual three-dimensional space setting unit 104 based on the read display object information and the movement information calculated by the movement information calculation unit 106, displays the display object information (position information, Direction information) is required.
  • the virtual three-dimensional space setting unit 104 sets the display object information of all the display objects constituting the virtual three-dimensional space in the frame.
  • the display object information is updated every frame as the game progresses as described above when the display object is a moving object such as a racing car, and the display object information on the map is usually a fixed value.
  • rotation information and the like may be changed as the game progresses.
  • Some maps may have location information but no direction information.
  • a map setting unit 110 is provided in the system, and the map setting is performed by the map setting unit 110.
  • the virtual three-dimensional space setting unit 104 performs predetermined arithmetic processing so that the position information and the direction information are the same (display without direction information) from the display object information shown in FIG. In the object information, the position information is the same), and a plurality of display object information with different object numbers are formed. Specifically, the virtual three-dimensional space setting unit 104 reads out the display object information shown in FIG. 6 stored in the display object information storage unit 108 and changes only the object number It forms the display object information. Then, the formed plural pieces of display object information are output to the image synthesizing unit 200.
  • FIGS. 8A and 8B show examples of a plurality of pieces of display object information formed in this manner. The display object information shown in FIG.
  • the display object information shown in FIG. 8 (B) differs from the display object information shown in FIG. 8 (A) only in the object number.
  • the position information and the direction information ( ⁇ 0, ⁇ 0, ⁇ 0, ⁇ 0, 00, ⁇ ) are the same between 0 B0 in FIG. 8 (A) and OBi + 1 in FIG. 8 (B).
  • Object naming is different. In this way, by forming display object information having the same position information and direction information and different object numbers, it is possible to represent racing cars 48 ⁇ , 48 ⁇ , and 48C having different numbers of polygons as shown in FIG. It becomes possible.
  • the position information and the direction information are the same, but the object number is different from OBi, OBj, and ⁇ Bk.
  • the object images of the racing cars 48A, 48B, and 48C (the number of polygons, polygon information, etc. are represented by the object image information) are stored in the display object information storage unit 212 in FIG. By specifying the object number, these object image information can be read. Therefore, by specifying different object numbers, it is possible to read out racing cars 48A, 48B and 48C with different numbers of polygons as shown in FIG.
  • These racing cars 48A, 48B, 48C are arranged at the same position and in the same direction in the first and second virtual three-dimensional spaces. In this way, by arranging the objects that make up the virtual 3D space in the same position and in the same direction with different numbers of polygons, it is possible to represent two virtual 3D spaces with different numbers of polygons on the display. It becomes possible.
  • FIGS. 10 and 11 show course objects 30A and 30B (map objects) having different numbers of polygons.
  • Course Object 3 OA is precisely depicted by many polygons.
  • the course object 30B is simplified and drawn with a small number of polygons.
  • Course 20 shown in FIG. 3 is configured by arranging such course objects.
  • two courses are prepared, one consisting of a course object having a large number of polygons and the other consisting of a course object having a small number of polygons.
  • the information in the display object information shown in FIG. By changing only the object number, multiple items of information on the course (map) are formed.
  • two virtual three-dimensional spaces can be expressed by forming a plurality of pieces of display object information in which objects having different numbers of polygons can be arranged at the same position and in the same direction.
  • the view image in the first virtual 3D space composed of objects with a large number of polygons is displayed on the main screen, and the display image in the second virtual 3D space composed of objects with a small number of polygons Is displayed on the sub screen.
  • the number of polygons required to form the sub-screen can be reduced.
  • a method of arranging the building 60 in FIG. 3 in the first virtual three-dimensional space, while omitting the building 60 in the second virtual three-dimensional space may be used.
  • display object information is not formed for the second virtual three-dimensional space building 60. This makes it possible to further reduce the number of polygons required for forming the sub-screen.
  • a map forming a virtual three-dimensional space is divided into a predetermined number of map plots and a map object is represented by arranging map objects in these map blocks, the following is required.
  • Such a method can be used. That is, in this case, for example, in FIG. 13, the mountain 40a having a large number of polygons is arranged in the first virtual three-dimensional space. Then, the mountains 40b and 40c having a small number of polygons are arranged in the second and third virtual three-dimensional spaces. As a result, the number of polygons required for forming the sub screen can be reduced.
  • the first virtual three-dimensional space has the first In the second virtual three-dimensional space, it is also possible to employ a technique of selectively using the second and third map blocks in accordance with the distance. In this way, the number of polygons on the main screen as well as the sub-screen can be reduced.
  • the above-described operation of dividing the map into a predetermined number of blocks and arranging the map object is performed by, for example, the map setting unit 110.
  • the image supply unit 210 includes an object image information storage unit 212, a processing unit 215, a coordinate conversion unit 218, a clipping processing unit 220, and a polygon data conversion unit. 2 2 4, including a sorting section 2 2 6.
  • the clipping processing unit 220 includes a perspective projection conversion unit 222.
  • various coordinate conversion processes and three-dimensional calculation processes are performed in accordance with the virtual three-dimensional space setting information set by the virtual three-dimensional space calculation unit 100.
  • the polygons that make up the objects are represented in absolute coordinates ( ⁇ coordinates).
  • XW, YW, Z) are used to perform the processing for placement in a virtual 3D space.
  • a process of converting the polygons constituting the objects into a viewpoint coordinate system (Xv, Yv, ⁇ ) based on the viewpoint of the player 302 is performed.
  • clipping processing is performed, and then, perspective projection conversion processing to the screen coordinate system (XS, YS) is performed.
  • the output format is converted, and finally, the sorting process is performed.
  • the viewpoint information common to all objects that is, the viewpoint position of the player 'angle. Viewing angle information, monitor information, etc., is updated every field, for example, every (1/60) second, and the virtual 3D space.
  • the data is transferred from the arithmetic unit 100 to the coordinate conversion unit 218 via the processing unit 215. In the coordinate conversion unit 218, various coordinate conversions are performed based on the data. Information such as the angle and size of the monitor is also transferred to the clipping processing unit 220 as data for clipping processing. These transferred data are referred to as frame data.
  • Display object information including object position information, direction information, and object number are transferred from the virtual three-dimensional space calculation unit 100 to the processing unit 215.
  • the image information of the corresponding object is read from the object image information storage unit 212 using the object number as an address. That is, for example, when the object number designates a racing car, the image information of the racing car is read from the object image information storage unit 212.
  • image information of a racing car and the like is represented and stored as a set (polyhedron) of a plurality of polygons.
  • the processing unit 215 forms a set of an object data set and a polygon data set from the read data by the data format forming unit 217 by the data format forming unit 217, and the coordinate conversion unit 215 Transfer sequentially to 8 or less.
  • the object data refers to data composed of position information, rotation information, and other attached data of the object.
  • the polygon data is image information about the polygons that make up the object, and is data composed of polygon vertex coordinates, vertex texture coordinates, vertex luminance information, and other attached data. .
  • the coordinate transformation unit 218 based on the player's viewpoint information transmitted from the processing unit 215 and the object data including the racing car position information and the rotation information transmitted from the processing unit 215, Various coordinate transformations are performed on the polygon data. That is, rotation of the polygon data in the local coordinate system, translation to the world coordinate system, rotation to the viewpoint coordinate system, and the like are performed.
  • the clipping processing section 220 performs clipping processing on the polygon data that has been subjected to the coordinate conversion.
  • the perspective projection conversion unit 222 in the clipping processing unit 220 performs perspective projection conversion to the screen coordinate system.
  • the clipping process and the perspective projection conversion process are performed using the same hardware.
  • the polygon data conversion unit 224 performs a process of converting polygon data that has been transformed into a polygon other than a quadrangle by the clipping process into quadrilateral polygon data.
  • the converted polygon data is output to the sorting processing section 226 of the next stage. Specifically, for example, when the polygon is transformed into a triangle by the clipping process, the conversion process is performed so that the triangular polygon becomes a pseudo-rectangular polygon. That is, when the numbers of the vertices of the original triangle polygon are 1, 2, and 3, the vertices of the original polygon are assigned the vertex numbers 1, 2, 3, and 1 to the vertices of the converted quadrilateral polygon.
  • conversion processing to quadrangle polygon data is performed. For example, if the polygon is deformed into a pentagon due to the clipping process, the polygon is converted into a quadrilateral polygon and a pseudo quadrilateral polygon (the triangular polygon is converted into a pseudo quadrilateral polygon as described above). Divided). For example, if the numbers of the vertices of the original pentagonal polygon are 1, 2, 3, 4, and 5, the vertices of the two divided polygons will be the vertices of the original polygon, respectively.
  • the vertex coordinates, vertex texture coordinates, vertex luminance information, etc. of the original polygon are determined by the allocated vertex numbers.
  • the conversion process to quadrangle polygon data will be performed. If the polygon is transformed into a hexagon by the clipping process,
  • polygons that have been reversed by the left-right inversion process of the image are converted into front polygons by the polygon data conversion unit 224.
  • the vertex numbers assigned to the vertices of the converted polygon are replaced with 1, 4, 3, and 2.
  • the vertex number specifies the vertex coordinates of the original polygon.
  • the polygon when a polygon that has become a pentagon due to the clipping process as described above is horizontally inverted, the polygon is divided into a quadrilateral polygon and a pseudo quadrilateral polygon, and the vertex numbers of these quadrilateral polygons are divided. Are assigned as 1, 4, 3, 2 and 1, 5, 4, 1. This makes it possible to simultaneously perform polygon division processing and conversion of polygons that have been reversed by left-right inversion into front polygons.
  • data for the main screen and data for the sub-screen are formed by the data format forming section 217, and these data are formed. Evening is transferred to the coordinate transformation unit 218 etc. as data to be processed in one frame.
  • the data for the main screen the data of the objects 1A, 2A, 3A, etc., are arranged in series with the frame data at the head. That is, data on all objects to be displayed on the main screen in the frame are connected.
  • the object data of the object 1A is followed by the polygon data of all the polygons constituting the object.
  • These polygons have a format, for example, as shown in FIG. 17 (B), and include polygon vertex coordinate information and the like.
  • the polygon data of all the polygons constituting the object are connected after the object data of object 2A.
  • the data format for the sub screen is also the same format as the data format for the main screen.
  • object 1 A and object 1 B The positions and directions of the objects are the same, but the number of polygons that follow the object is different. The same applies to the difference between object 2A and object 2B.
  • the data format forming unit 217 by forming such format data by the data format forming unit 217, it is possible to make the number of polygons of the object displayed on the main screen and the sub screen different. ing. Further, the viewpoint position, the viewpoint direction, and the like can be made different between the main screen data and the sub screen data. To do this, the contents of the frame data placed at the top of the main screen data and sub screen data may be different.
  • a back mirror can be formed on a certain main screen. In this case, however, it is necessary to display the image by inverting left and right, but this left / right inversion processing is performed in the polygon data conversion unit 224 in this embodiment as described above.
  • the image forming unit 228 calculates the image information inside the polygon based on the vertex image information given for each vertex of the polygon, and outputs this to the CRT 10. As shown, it includes a processor section (texture calculation means) 230, a texture information storage section 242, and a pallet & mixer circuit 244.
  • image synthesis is performed by a method called a texture mapping method and a Gouraud shading method in order to more efficiently synthesize a high-quality image.
  • a texture mapping method and a Gouraud shading method in order to more efficiently synthesize a high-quality image.
  • processing such as coordinate transformation such as rotation, translation, perspective projection transformation, and clipping of the object 3332 is performed for each polygon A, B, and C constituting each surface (specifically, For each vertex of a polygon), lattice and stripe patterns are treated as textures, and are processed separately from polygon processing. That is, as shown in FIG. 18, a texture information storage section 242 is provided in the image forming section 228, and texture information to be attached to each three-dimensional polygon, that is, a grid pattern or a stripe Image information such as a pattern of a shape is stored.
  • the processor unit 230 in the image forming unit 228 obtains texture coordinates ⁇ , ⁇ ⁇ ⁇ ⁇ for all dots in the polygon from the vertex texture coordinates VTX, VTY. Then, based on the obtained texture coordinates ⁇ , ⁇ , the corresponding texture information is read from the texture information storage unit 242 and output to the pallet & mixer circuit 244. As a result, it becomes possible to synthesize an image of a three-dimensional object having a texture such as a lattice or a stripe as shown in FIG.
  • the object 332 is represented as a set of polygons. Therefore, the continuity of the luminance information at the boundary of each of the three polygons is a question. For example, when trying to represent a sphere using multiple polygons, if all the dots in a polygon are all set to the same brightness, we actually want to represent "roundness", but the boundary of each polygon is represented as "roundness" Not happen. Therefore, in the present embodiment, this is avoided by a method called Gouraud shading. In this method, vertex luminance information VBRI 0 to VBRI 3 are given to each vertex of a three-dimensional polygon as shown in FIG. 19, and the image forming unit 228 When finally displaying an image, the vertex luminance information VBRI 0 to VBRI 1113 The brightness information of all the dots in the three-dimensional polygon is obtained by interpolation.
  • FIGS. 20 (A) to 20 (K) visually show the flow of arithmetic processing for texture mapping.
  • the image forming unit 228 performs an arithmetic process for forming all the image information in the polygon based on the polygon vertex image information.
  • the texture information to be attached to the polygon is stored in the texture information storage unit 342, and the texture coordinates TX and ⁇ are required to read out the texture information.
  • FIGS. 20 (F), (G), ( ⁇ ), and (I) visually show the operation of calculating all the perspective transformation texture coordinates ⁇ *, ⁇ * in the polygon. . Also, FIGS.
  • FIG. 20 ( ⁇ ), (C), (D), and ( ⁇ ⁇ ) visually show the state of calculation processing for obtaining the perspective transformation display coordinates ⁇ ⁇ *, which are the coordinates at which the texture information should be displayed. ing.
  • the above operation is performed by the processor 230.
  • the computed perspective transformation texture coordinates ⁇ *, ⁇ * are inversely perspective-transformed into texture coordinates ⁇ , ⁇ , and the inversely perspective-transformed texture coordinates ⁇ , ⁇
  • the texture information is read from the texture information storage unit 242.
  • the image composition is performed by associating the read texture information with the calculated coordinate positions of ⁇ * and ⁇ *.
  • FIG. 21 (A) and ( ⁇ ) visually show how the texture mapping has been applied to the racing car object.
  • the texture information storage unit 242 stores texture information 902 to 916 as shown in FIG. 21 ( ⁇ ). By mapping these to a racing car object, the texture information is stored as shown in FIG. 21 ( ⁇ ). It is possible to express a racing car full of realism.
  • FIG. 22 shows an example of a texture storage plane configured by the texture information storage unit 242. As shown in FIG. 22, the texturing of the polygon is performed by specifying the texture coordinates ⁇ , ⁇ of the texture to be mapped to the polygon.
  • texture mapping is performed not only on the display object on the main screen but also on the display object on the sub screen.
  • the display information in the first virtual three-dimensional space and the display object arranged at the same position and the same direction in the second virtual three-dimensional space are used to store texture information.
  • the texture information stored in the unit 242 is commonly used.
  • FIG. 23 (A) shows an example of a map object arranged in the first virtual three-dimensional space.
  • This map object is composed of polygons al to a5, bl, b2, cl, c2, d1 to d3 as shown in FIG.
  • FIG. 23 (B) shows an example of a map object arranged in the second virtual three-dimensional space.
  • This map object is a simplified representation of the map object shown in FIG. 23 (A), and is composed of polygons, b, c, and d.
  • These map objects are arranged in the same position and in the same direction in each virtual three-dimensional space.
  • FIG. 23 (C) shows an example of texture information to be attached to these map objects and a texture plane in which the texture information is stored. This texture information is composed of an asphalt pattern and a center line.
  • VTXA, VTYA), (VTXB, VTYB), (VTXKs VTYK), and (VTXL, VTYL) shown in FIG. 23C are given as vertex texture coordinates of the polygon a1.
  • the processor unit 230 obtains the texture coordinates ⁇ , ⁇ ⁇ ⁇ ⁇ for all the dots (vicels) in the polygon a1 by the processing shown in FIGS. 20 (A) to (K).
  • Texture mapping for polygons a2, a3, a4, and a5 can be performed in the same manner.
  • texture matting is performed as follows. For example, consider a case in which texture matching is performed on a polygon a composed of vertices A, F, G ′, and L.
  • (VTXA, VTYA), (VTXF, VTYF), (VTXG, VTYG), (VTXL, VTYL) shown in Fig. 23 (C) are given as the vertex texture coordinates of polygon a. That is, the same vertex texture coordinates as the vertex texture coordinates given to points A, F, G, and L in FIG. 23 (A) are given.
  • the texture coordinates ⁇ , ⁇ ⁇ ⁇ ⁇ of all the dots in the polygon a1 are obtained.
  • the texture mapping for the polygon a is completed.
  • the texture information is shared and used between the precise object and the corresponding simplified object. Then, only the vertex texture coordinates are given to each polygon, and the texture coordinates of the dots in the polygon are obtained by the interpolation processing shown in FIGS. 20 (A) to (K). Therefore, even if the texture information is shared and used in this way, the texture shown in FIG. 23 (C) is similarly mapped to the map object shown in FIG. 23 (A) and FIG. 23 (B). It is possible to do.
  • sharing and using the texture information in this way it is not necessary to provide two types of texture information storage units 242 for precise objects and simplified objects. The required storage capacity can be reduced, and the hardware can be downsized.
  • the vertex texture coordinates given to the polygon are stored in the object image information storage unit 212 as a part of the image information (see FIG. 17B). Therefore, for vertex A,, F,, G,, L of polygon a in Fig. 23 (B), vertex texture coordinates common to vertices A, F, G, L in Fig. 23 (A) are obtained. And then stored in the image information storage unit 212. Further, in the present embodiment, even with the vertex brightness information VBRI, A,, F,, G,, L, and A, F, G, thereby c are given to common between L, the goo port one The brightness calculation by the shading method is similarly performed for the polygon a and the polygons al to a5. It should be noted that the present invention is not limited to the above embodiments, and various modifications can be made within the scope of the present invention.
  • a racing car game has been described as an example.
  • the present invention is not limited to this, and can be applied to all types of 3D games, such as a spaceship game in which a map is formed in 3D. Can also be applied.
  • the present invention can be applied to not only a three-dimensional game for business use but also, for example, a home-use game machine, a flight simulator, a driving simulator used in a driving school, and the like.
  • arithmetic processing in the virtual three-dimensional space arithmetic unit or the like can be performed by a dedicated image processing device, or can be performed using a microcomputer.
  • the sub-screen in the present invention is not limited to the pack mirror described in the present embodiment, but can be applied to various screens. For example, it can be applied to a side mirror.
  • an image of the future tank 820 controlled by the player viewed from above is displayed on the sub-screen 801.
  • an image viewed from a camera attached to the tip of a missile 988 fired by a future tank 8200 may be displayed on the sub-screen 801.
  • the number of polygons of the display object projected on the sub-screen is reduced and the expression is simplified, but conversely, the number of polygons of the display object projected on the sub-screen is increased and the expression is more precise. It is also possible. By doing so, it becomes possible to display a sub-screen such as a magnifying glass on which an object can be magnified and viewed, for example, on the main screen.
  • the pseudo three-dimensional image synthesized by the present invention can be naturally displayed not only on a display such as CRT10 but also on a display called a head mount display (HMD).
  • HMD head mount display

Description

明 細 書
3次元シミュレー夕装置及び画像合成方法
[技術分野]
本発明は、 仮想 3次元空間をシミュレートできる 3次元シミュレータ装置及び 画像合成方法に関する。
[背景技術]
従来、 例えば 3次元ゲームあるいは飛行機及び各種乗物の操縦シュミレー夕等 に使用される 3次元シミュレータ装置として種々のものが知られている。 このよ うな 3次元シミュレータ装置では、 図 2 5 (A) に示す 3次元物体 3 0 0に関す る画像情報が、 あらかじめ装置に記憶されている。 ここで、 この 3次元物体 3 0 0は、 プレーヤ 3 0 2がスクリーン 3 0 6を介して見ることができる風景等を表 すものである。 そして、 この風景等を表す 3次元物体 3 0 0の画像情報をスクリ —ン 3 0 6上に透視投影変換することにより疑似 3次元画像 3 0 8をスクリーン 3 0 6上に画像表示している。 この装置では、 プレーヤ 3 0 2が、 操作パネル 3 0 4により回転、 並進等の操作を行うと、 この操作信号に基づいて所定の 3次元 演算処理が行われる。 具体的には、 まず、 操作信号によりプレーヤ 3 0 2の視点 位置、 視線方向あるいはプレーヤ 3 0 2の搭乗する移動体の位置、 方向等がどの ように変化するかを求める演算処理が行われる。 次に、 この視点位置、 視線方向 等の変化に伴い、 3次元物体 3 0 0の画像がスクリーン 3 0 6上でどのように見 えるかを求める演算処理が行われる。 そして、 以上の演算処理はプレーヤ 3 0 2 の'操作に追従してリアルタイムで行われる。 これによりプレーヤ 3 0 2は、 自身 の視点位置、 視線方向の変化あるいは自身の搭乗する移動体の位置、 方向の変化 に伴う風景等の変化を疑似 3次元画像としてリアルタイムに見ることが可能とな り、 仮想的な 3次元空間を疑似体験できることとなる。
図 2 5 ( B ) には、 以上のような 3次元シミュレータ装置により形成される表 示画面の一例が示される。
さて、 ドライビングゲーム、 ドライビングシミュレータ等において、 図 2 5 ( B ) に示す表示画面 (メイン画面) 上にバックミラ一、 サイ ドミラ一等のサブ 画面を形成できれば、 ゲームあるいはシミュレ一シヨンのリアル性を高めること ができる。
この場合、 ゲーム等のリアル性をより高めるためには、 パックミラ一等のサブ 画面にも、 メイン画面と同様にリアルな疑似 3次元画像を表示することが望まし レ 0
しかし、 このようにサブ画面に対してもメイン画面と同様にリアルな疑似 3次 元画像を表示しょうとすると、 サブ画面を形成するための演算処理も必要になる。 ところが、 このようなシミュレータ装置には、 1フレーム内、 例えば 1 / 6 0秒 内に画像合成のための演算処理を完了しなければならないという制約がある。 従 つて、 上述のようにサブ画面についても疑似 3次元画像の画像合成を行わなけれ ばならないとすると、 演算処理が間に合わなくなり、 メイン画面に表示すべきデ 一夕が欠落する等の事態が生じ、 画像の品質が劣化するという問題が生じる。 本発明は、 以上のような技術的課題を解決するためになされたものであり、 そ の目的とするところは、 メイン画面上にリアル感溢れるサブ画面を形成できると ともに、 このサブ画面の形成がメイン画面の画像合成処理にあまり影響を与えな いような 3次元シミュレータ装置及び画像合成方法を提供するところにある。
[発明の開示]
上記課題を解決するために、 本発明に係る 3次元シミュレータ装置は、 仮想 3 次元空間を構成する複数の表示物の位置あるいは位置及び方向を設定することで '仮想 3次元空間の形成演算を行う仮想 3次元空間演算手段と、
' 該仮想 3次元空間演算手段からの演算結果に基づいて前記仮想 3次元空間にお ける任意の視点からの視界画像を合成する画像合成手段とを含み、
前記仮想 3次元空間演算手段が、
前記表示物の位置あるいは位置及び方向が同一であり表示物を構成するポリゴ ンの数が異なる複数の仮想 3次元空間を形成する手段を含み、
前記画像合成手段が、
メインの画面に表示する画像として、 前記複数の仮想 3次元空間の中で表示物 のポリゴン数が多い仮想 3次元空間における視界画像を合成する手段と、
1又は複数のサブの画面に表示する画像として、 表示物のポリゴン数が少ない 他の仮想 3次元空間における視界画像を合成する手段とを含むことを特徴とする c 本発明によれば、 表示物の位置あるいは位置及び方向が同一であり表示物を構 成するポリゴンの数が異なる複数の仮想 3次元空間、 例えば第 1、 第 2の仮想 3 次元空間が形成される。 そして、 例えば第 2の仮想 3次元空間では、 第 1の仮想 3次元空間の表示物よりもポリゴン数の少ない表示物が、 第 1の仮想 3次元空間 の表示物と同一位置、 同一方向 (位置のみが指定される表示物では位置のみが同 一) に配置される。 そして、 この場合には、 表示物のポリゴン数の多い第 1の仮 想 3次元空間における視界画像がメイン画面に表示され、 表示物のポリゴン数の 少ない第 2の仮想 3次元空間における視界画像がサブ画面に表示されることにな る。 このように本発明によれば、 メイン画面に映し出される画像の品質をあまり 低下させることなく、 サブ画面の形成においてもメイン画面の形成と同様に仮想 3次元空間を形成し該仮想 3次元空間における視界画像を合成することができ、 限られた演算処理能力の中でリアル感の高いメイン画面とサブ画面の両方を表示 できる。 これにより、 リアルタイムに高品質の画像を生成できる 3次元シミュレ 一夕装置を提供できる。 また、 例えばメイン画面上にリアル感溢れるバックミラ 一、 サイ ドミラ一、 あるいは移動体を上方から見た画像等を映し出すことが可能 となる。 なお、 サブ画面をバックミラ一、 サイ ドミラーに適用する場合には、 操 作者の後ろ向き方向の視界画像を求め、 この視界画像を左右反転する演算処理を 行うことになる。
• また、 本発明は、 表示物を構成するポリゴンに対してテクスチャを施すための 癀算を行うテクスチャ演算手段と、
該テクスチャ演算手段において施されるテクスチャの情報を記憶するテクスチ ャ情報記憶手段とを含み、
前記テクスチャ演算手段が、
前記異なる仮想 3次元空間において位置あるいは位置及び方向が同一である前 記表示物の一部又は全部に対して、 前記テクスチャ情報記憶手段に記憶されるテ クスチヤ情報を共通に使用する手段を含むことを特徴とする。 本発明によれば、 異なる仮想 3次元空間における表示物の各々に対してテクス チヤ情報を別に用意する必要がなくなり、 テクスチャ情報記憶手段に必要とされ る記憶容量を節約できる。 これにより装置の低コスト化を図ることができる。 し かも、 本発明によれば、 共通のテクスチャ情報によりサブ画面用の表示物に対し てもテクスチャマツビングが行われるため、 サブ画面に表示される画像のリアル 感もメイン画面と同様に高めることができる。 これにより従来にない映像効果を 生み出すことができ、 ゲームの面白味を高めることができる。 なお、 本発明では、 表示物の全部についてテクスチャ情報を共通に使用する必要はなく、 共通に使用 することによりひずみ等が大きくなるものについては別のテクスチャ情報を用意 してもかまわない。
また本発明に係る 3次元シミユレ一夕装置は、 仮想 3次元空間を構成する複数 の表示物のオブジェクトナンバー及び位置情報あるいはオブジェクトナンパ一及 び位置情報及び方向情報を含む表示物情報の設定を行うことで仮想 3次元空間の 形成演算を行う仮想 3次元空間演算手段と、
前記オブジェクトナンバーにより指定されるォブジェク卜の画像情報を記憶す る画像情報記憶手段と、
前記表示物情報と、 前記画像情報記憶手段から前記オブジェクトナンバーに基 づき読み出される前記画像情報とに基づいて、 仮想 3次元空間における任意の視 点からの視界画像を合成する画像合成手段とを含み、
前記仮想 3次元空間演算手段が、
位置情報あるいは位置情報及び方向情報が同一で、 オブジェクトナンバーが異 'なる複数の表示物情報を形成する手段を含み、
' 前記画像情報記憶手段には、 前記異なるオブジェクトナンバーにより指定され るォブジェク卜についてはオブジェクトを構成するポリゴンの数が異なるように 前記画像情報が記憶され、
前記画像合成手段が、
ポリゴン数が多いオブジェクトの画像情報に基づいて、 メイン画面に表示され る視界画像を合成する手段と、
ポリゴン数が少ないォブジヱク卜の画像情報に基づいて、 1又は複数のサブ画 面に表示される視界画像を合成する手段とを含むことを特徴とする。
本発明によれば、 位置情報等が同一でオブジェク 卜ナンパ一が異なる複数の表 示物倩報、 例えば第 1、 第 2の表示物倩報が形成される。 そして、 例えば第 1の 表示物情報のオブジェクトナンバーにより指定されるォブジェクトについてはポ リゴン数が多いように画像情報が形成される。 一方、 第 2の表示物情報のォブジ ェクトナンバーにより指定されるォブジェク卜についてはポリゴン数が少ないよ うに画像情報が形成される。 そして、 第 1の表示物情報のオブジェクトナンバー により読み出された画像情報に基づいてメイン画面に表示される視界画像が合成 され、 第 2の表示物情報のォブジェクトナンバーにより読み出された画像情報に 基づいてサブ画面に表示される視界画像が合成される。 以上により、 メイン画面 を多くのポリゴンで構成されるォブジェク トにより表現できるとともに、 サブ画 面を少ないポリゴン数で構成されるォブジェクトにより表現できることになる。 これにより、 メイン画面に映し出されるの画像の品質をあまり低下させることな く、 サブ画面形成のために必要なポリゴン数を少なくすることができ、 画像処理 のリアルタイム性を維持することができる。 しかも、 サブ画面の形成も、 メイン 画面の形成と同様に、 表示物情報とオブジェクト画像情報とを用いて仮想 3次元 空間における任意の視点からの視界画像を合成することで行われるため、 サブ画 面に表示される画像のリアル感も高めることができる。
また本発明は、 前記画像情報記憶手段には、 ポリゴン数が異なる複数のォブジ ェク卜の画像情報が記憶され、
前記画像合成手段が、
' 前記複数のオブジェクトの中から所与の選択範囲で選択されたォブジェク卜の 画像情報に基づいて視界画像を合成する手段を含み、
メイン画面の視界画像を合成するための前記オブジェク卜の前記選択範囲が、 サブ画面の視界画像を合成するための前記オブジェク卜の前記選択範囲よりもポ リゴン数の多いオブジェクトをより多く含む選択範囲となっていることを特徴と する。
本発明によれば、 位置情報等が共通でポリゴン数が異なる複数のオブジェクト の画像情報、 例えば第 1、 第 2、 第 3のオブジェクトの画像情報が用意される。 ここでは、 例えば第 1のオブジェク トのポリゴン数が最も多く、 第 3のオブジェ ク トのポリゴン数が最も少ない。 そして、 メイン画面の視界画像を合成する場合 には、 第 1、 第 2、 第 3のオブジェクトの画像情報に基づいて視界画像が合成さ れる。 一方、 サブ画面の視界画像を合成する場合には、 第 1、 第 2、 第 3のォブ ジェク卜から例えば第 2、 第 3のォブジェク卜が選択され、 第 2、 第 3のォブジ ェクトの画像情報に基づいて視界画像が合成される。 これにより、 例えばメイン 画面において遠距離用、 中距離用、 近距離用のオブジェクトを距離に応じて使い 分けるとともに、 サブ画面においては中距離用、 近距離用のオブジェクトを距離 に応じて使い分けるというような処理が可能となる。 これにより、 サブ画面の形 成に必要なポリゴン数を、 全体としてメイン画面形成に必要なポリゴン数よりも 減らすことが可能となる。 この結果、 メイン画面の画像合成処理にあまり影響を 与えることなくサブ画面にリアルな画像を表示することが可能となる。
また本発明は、 前記仮想 3次元空間演算手段が、
表示物の一部については前記複数の表示物情報の形成を省略する手段を含み、 メイン画面に表示される表示物の一部については、 サブ画面への表示が省略さ れることを特徴とする。
本発明によれば、 例えば、 メイン画面において表示されるビル等のオブジェク 卜が、 サブ画面では表示が省略される。 サブ画面はメイン画面よりも画面サイズ が小さくなることが通常であるため、 このように一部のオブジェクトの表示を省 略しても、 プレーヤ等に気づかれることがない。 一方、 このように一部のォブジ ェクトについてサブ画面への表示を省略することで、 サブ画面形成に必要なポリ 'ゴン数を減らすことが可能となる。
また本発明は、 仮想 3次元空間を構成するマップが所定数に分割され、 該分割 されたマップにマップオブジェクトを配置することでマップの表示を行う手段を 含み、
前記メイン画面に表示されるマップの分割数が前記サブ画面に表示されるマツ プの分割数よりも多いことを特徴とする。
本発明によれば、 メイン画面に対しては精密に表現されたマップを表示するこ とができるとともに、 サブ画面に対しては簡 匕されて表現されたマップを表示 することが可能となる。 この結果、 サブ画面形成に必要なポリゴン数を減らすこ とができ、 メイン画面の画像合成処理にあまり影響を与えることなくサブ画面に リアルな画像を表示することができる。
また本発明は、 オブジェク トを構成するポリゴンに対してテクスチャを施すた めの演算を行うテクスチャ演算手段と、
該テクスチャ演算手段において施されるテクスチャの情報を記憶するテクスチ ャ情報記憶手段とを含み、
前記画像情報記憶手段には、 前記テクスチヤ情報記憶手段において前記テクス チヤ情報を指定するための頂点テクスチャ座標が、 前記画像情報の一部として記 憶され、
前記テクスチャ演算手段が、
メイン画面に表示するォブジェクトのポリゴンにテクスチャを施すために使用 する前記頂点テクスチャ座標の一部を、 サブ画面に表示するォブジェクトのポリ ゴンにテクスチャを施す場合に共通に使用する手段を含むことを特徴とする。 本発明によれば、 メイン画面用とサブ画面用とで、 テクスチャ情報を別に用意 する必要がなくなり、 テクスチャ情報記憶手段に必要とされる記憶容量を節約で きる。 これにより装置の低コスト化を図ることができる。 しかも、 本発明によれ ば、 サブ画面用の表示物に対してもテクスチャマツビングが行われるため、 サブ 画面に表示される画像のリアル性もメイン画面と同様に高めることができる。 な お、 本発明によれば、 頂点テクスチャ座標のみならず頂点輝度情報についても共 通に使用することが可能である。
[図面の簡単な説明]
第 1図は、 本発明に係る実施例の一例を示すプロック図である
第 2図は、 本 3次元シミュレータ装置の外観の一例を示す概略図である。 第 3図は、 仮想 3次元空間の一例を示す概略図である。
第 4図は、 本 3次元シミュレータ装置により画像合成されたゲーム画面 (疑似 3次元画像) を示す概略図である。
第 5図は、 仮想 3次元空間演算部の一例を示すプロック図である。 第 6図は、 表示物情報記憶部に記憶される表示物情報について説明するための 概略説明図である。
第 7図は、 オブジェク卜に設定される表示物情報について説明するための概略 説明図である。
第 8図 (A) 、 ( B ) は、 位置情報及び方向情報が同一であり、 オブジェクト ナンバーが異なる複数の表示物情報を説明するための概略説明図である。
第 9図は、 ポリゴン数の異なる複数種類のレーシングカーオブジェクトを示す 図である。
第 1 0図は、 多いポリゴン数で構成されたコースオブジェクトの一例を示す図 である
第 1 1図は、 少ないポリゴン数で構成されたコースオブジェクトの一例を示す 図である
第 1 2図は、 複数のマップブロックに分割されたマップを示す図である。 第 1 3図は、 マップブロックに配置されるマップオブジェクトの概略を示す図 である。
第 1 4図は、 分割数の異なる複数種類のマップブロックを示す図である。
第 1 5図は、 画像供給部の一例を示すブロック図である。
第 1 6図は、 本実施例における 3次元演算処理について説明するための概略説 明図である。
第 1 7図 (A) 、 ( B ) は、 データフォーマツ ト形成部で形成されるデータフ ォ一マツ卜の一例を示す図である。
' 第 1 8図は、 画像合成部の一例を示すブロック図である。
' 第 1 9図は、 テクスチャマツビング手法を説明するための概略説明図である。 第 2 0図 (A) 〜 (K) は、 本実施例におけるテクスチャマツビング手法を視 覚的に表した図である。
第 2 1図 (A) 、 (B ) は、 レーシングカーのオブジェクトにテクスチャマツ ビングを施した様子を視覚的に表した図である。
第 2 2図は、 テクスチャ情報記憶部により構成されるテクスチャ記憶平面の一 例を示す図である。 第 2 3図 (A ) 、 (B ) は、 第 1、 第 2の仮想 3次元空間に配置されるマップ オブジェクトの一例を示す図であり、 第 2 3図 (C ) は、 これらのマップォブジ ェクトにマッピングするテクスチャ情報及びこのテクスチャ情報が格納されるテ クスチヤ平面の一例を示す図である。
第 2 4図は、 サブ画面の他の適用例を説明するための概略説明図である。 第 2 5図 (A ) は、 3次元シミュレータ装置の概念を説明するための概略説明 図であり、 第 2 5図 (B ) は、 この 3次元シミュレータ装置により形成される画 面の一例を示す図である。
[発明を実施するための最良の形態]
1 . ゲームの概要
まず、 本 3次元シミュレータ装置で実現される 3次元ゲームの一例について簡 単に説明する。
本 3次元シミュレータ装置により実現される 3次元ゲームは、 移動体、 例えば プレーヤレーシングカーにてマップ上に形成されたコース上を走行し、 他のプレ —ャ操作する相手レ一シングカー、 コンビユー夕が操作するコンビユー夕カーと 順位を競い合うレーシングカーゲームである。 図 2には、 本 3次元シミュレータ 装置の外観図の一例が示される。 同図に示すようにこの 3次元シミュレータ装置 は、 実際のレーシングカーの運転席と同様に形成されている。 そして、 プレーヤ は、 シート 1 8に着座し、 C R T (ディスプレイ) 1 0に映し出されたゲーム画 面 (レーシングカーの運転席から見える風景の疑似 3次元画像) を見ながら、 操 作部 1 2に設けられたハンドル 1 4、 アクセル 1 5、 シフ トレバ一 1 6等を操作 して架空のレーシングカーを運転してゲームを行う。
図 3には、 本 3次元ゲームにおける仮想 3次元空間の一例が示される。 このよ うに、 本 3次元ゲームにおける仮想 3次元空間には、 3次元的に形成されたコ一 ス 2 0が配置されている。 そして、 コース 2 0の周辺には、 ビル 6 0、 トンネル 6 2、 山 6 4、 崖 6 6、 壁 6 8等の 3次元オブジェクトが配置されている。 プレ ーャはこれらのコース等が映し出された C R T 1 0を見ながらレーシングカーを 操作する。 そして、 スタートポイント 7 0からスタートして、 コース 2 0を周回 し、 所定回数コースを周回するとゴールとなり、 プレーヤの順位が決定される。 図 4には、 本 3次元ゲームにおいて T 1 0上に映し出されるゲーム画面の 一例が示される。 図 4に示すようにメイン画面 1には例えば相手レーシングカー 5 2が映し出されており、 プレーヤはメイン画面 1を見ながら、 この相手レ一シ ング力一 5 2と競争を行うことになる。 図 4に示すように、 メイン画面 1には、 相手レーシングカー 5 2の他に、 路面 2 1、 トンネルの壁 2 2等が映し出されて いる。 そして、 メイン画面 1上には、 更にバックミラ一 (サブ画面) 2が表示さ れており、 このバックミラー 2を見ることによりブレーャは、 コンピュータ一力 —5 4が後ろから追いかけてくるということを認識できる。 これにより、 ゲーム の臨場感、 面白味を非常に高めることができる。 更に、 ノ ックミラー 2には、 メ イン画面と同様に路面 2 3、 壁 2 4が映し出されている。 そして、 ノ ックミラ一 2に映る路面 2 3には、 メイン画面 1の路面 2 1と同様に、 アスファルト状の模 様が施されており、 また、 セン夕一ライン 2 6等も描かれている。 このように、 本 3次元ゲームによれば、 ノ、'ックミラ一 2に映る画像もメィン画面 1と同様にリ ァリティに溢れるものとなる。 一方、 図 4に示すように、 メイン画面 1上の相手 レーシングカー 5 2については、 テールランプ等が詳細に描かれており、 また、 相手レーシングカー 5 2の形も実写に近いように精密に描かれている。 これに対 して、 バックミラ一 2に映るコンビユー夕一カー 5 4は、 相手レーシングカー 5 2に比べると、 より簡略化されて描かれている。
本実施例では、 後述するように、 メイン画面 1を描くための仮想 3次元空間と、 パックミラ— (サブ画面) 2を描くための仮想 3次元空間とを別に用意し、 これ により、 図 4に示すようにバックミラー 2にもメイン画面 1と同様にリアル感の ある映像を映し出すことに成功している。 一方、 バックミラ一 2はメイン画面 1 に比べ表示範囲が小さく、 ある程度表示物の精密度を下げてもプレーヤに気づか れることはない。 そこで、 ノ、 -ックミラー 2における表示物を構成するポリゴンに ついては、 メイン画面 1における表示物よりもポリゴン数を減らしている。 これ により、 リアル感をある程度維持しながらも、 演算処理を行わなければならない ポリゴンの総数を減らすことが可能となり、 例えばメイン画面 1の映像データが 欠落する等の事態が生じるのを有効に防止している。 なお、 以上の説明は、 1人あるいは 2人のプレーヤによるゲームの場合につい いて述べたが、 本発明はこれに限らず、 3人以上のマルチプレーヤ型のゲームに も当然適用できる。
2 . 装置全体の説明
図 1には、 本発明に係る 3次元シミュレ一夕装置の実施例のブロック図が示さ れる。
図 1に示すように、 本 3次元シミュレータ装置は、 プレーヤが操作信号を入力 する操作部 1 2、 所定のゲームプログラムにより仮想 3次元空間設定のための演 算を行う仮想 3次元空間演算部 1 0 0、 プレーヤの視点位置における疑似 3次元 画像を形成する画像合成部 2 0 0、 及びこの疑似 3次元画像を画像出力する C R T (ディスプレイ) 1 0を含んでいる。
操作部 1 2には、 例えば本 3次元シミュレータ装置をレーシングカーゲームに 適用した場合には、 レーシングカーを運転するためのハンドル 1 4、 アクセル 1 5等が接続され、 これにより操作信号が入力される。
仮想 3次元空間演算部 1 0 0では、 図 3に示す仮想 3次元空間における複数の 表示物、 例えばコース 2 0、 ビル 6 0、 トンネル 6 2、 山 6 4、 壁 6 6〜 6 8、 プレーヤレーシングカー、 相手レーシングカー、 コンピュータ一力一等の位置あ るいは位置及び方向を設定する演算が行われる。 この演算は、 操作部 1 2からの 操作信号やあらかじめ設定記憶されているマップ情報等に基づいて行われる。 そして、 画像合成部 2 0 0では、 仮想 3次元空間演算部 1 0 0からの演算結果 に基づいて仮想 3次元空間における任意の視点からの視界画像を合成する演算が 行われる。 そして、 合成された視界画像は C R T 1 0より出力される。
さて、 本実施例では、 仮想 3次元空間演算部 1 0 0の演算により、 表示物の位 置あるいは位置及び方向が同一であり表示物を構成するポリゴンの数が異なる第 1、 第 2の仮想 3次元空間が形成される。 即ち、 図 3に示すような仮想 3次元空 間が 2つ用意される。 但し、 この 2つの仮想 3次元空間の間では表示物を構成す るポリゴン数が異なっており、 第 1の仮想 3次元空間における表示物のポリゴン 数の方が多くなるように設定される。 そして、 画像合成部 2 0 0では、 メインの 画面に表示される画像として第 1の仮想 3次元空間における視界画像が合成され る。 一方、 サブの画面に表示される画像として第 2の仮想 3次元空間における視 界画像が合成されることになる。 これにより、 図 4に示すようなゲ一ム画面を形 成することが可能となる。 なお、 サブ画面をパックミラー 2として使用する場合 には以下のようになる。 即ち第 1の仮想 3次元空間では、 視点位置がプレーヤ力 —の位置で視線方向を前向きとした場合の視界画像が形成される。 これに対して、 第 2の仮想 3次元空間では、 視線方向を後ろ向きとした場合の視界画像が形成さ れる。 そして、 第 2の仮想 3次元空間において演算された視界画像は左右反転さ れ、 ノ ックミラー 2に映し出される。
次に、 仮想 3次元空間演算部 1 0 0、 画像合成部 2 0 0の具体的構成について 説明する。 図 5には、 仮想 3次元空間演算部 1 0 0のブロック図の一例が示され、 図 1 5、 図 1 8には画像合成部 2 0 0内の画像供給部 2 1 0、 画像形成部 2 2 8 のプロック図の一例が示される。
3 . 仮想 3次元空間演算部についての説明
図 5に示すように、 仮想 3次元空間演算部 1 0 0は、 処理部 1 0 2、 仮想 3次 元空間設定部 1 0 4、 移動情報演算部 1 0 6、 表示物情報記憶部 (オブジェクト 情報記憶部) 1 0 8を含んでいる。
ここで、 処理部 1 0 2では、 3次元シミュレータ装置全体の制御が行われる。 また、 処理部 1 0 2内に設けられた記憶部には、 所定のゲームプログラムが記憶 されている。 仮想 3次元空間演算部 1 0 0は、 このゲームプログラム及び操作部 ' 1 2からの操作信号にしたがって仮想 3次元空間設定の演算を行うことになる。
移動情報演算部 1 0 6では、 操作部 1 2からの操作信号及び処理部 1 0 2から の指示等にしたがって、 レーシングカーの移動情報が演算される。
表示物情報記憶部 1 0 8には、 仮想 3次元空間を構成する表示物の位置情報 · 方向情報及びこの位置に表示すべきオブジェクトのォブジェクトナンパ一が記憶 されている (以下、 この記憶された位置情報 '方向情報及びオブジェクトナンパ 一を表示物情報 (オブジェク ト情報) と呼ぶ) 。 図 6には、 表示物情報記憶部 1 0 8に記憶される表示物情報の一例が示される。 また、 図 7には、 これらの表示 物情報に含まれる位置情報、 方向情報 (X m、 Y m、 Z m、 Θ ui、 0 m、 p m) と絶対座標系 (X w、 Y w.、 Z w) の関係が示される。
ここで、 オブジェクトにはレーシングカー等を表現する移動体オブジェクト、 及び、 コース等を表現するマップオブジェクトがあり、 これらのオブジェクトは 図 7に示すように多角形のポリゴンの集合で表現されている。
表示物情報記憶部 1 0 8に記憶されている表示物情報は、 仮想 3次元空間設定 部 1 0 4により読み出される。 この場合、 表示物情報記憶部 1 0 8には、 当該フ レームの 1つ前のフレームにおける表示物情報が記憶されている。 そして、 仮想 3次元空間設定部 1 0 4では、 読み出された表示物情報と、 移動情報演算部 1 0 6で演算された移動情報とに基づいて、 当該フレームにおける表示物情報 (位置 情報、 方向情報) が求められる。
このようにして、 仮想 3次元空間設定部 1 0 4では、 当該フレームにおける仮 想 3次元空間を構成する全ての表示物の表示物情報が設定されることになる。 なお、 上記のように表示物情報がゲーム進行に伴い 1フレーム毎に更新される のは、 表示物がレーシングカー等の移動体である場合であり、 マップの表示物情 報は通常は固定値となる。 但し、 宇宙ゲームにおける隕石等を表すマップでは、 ゲーム進行に伴い回転情報等を変化させてもよい。 また、 マップによっては、 位 置情報は有するが方向情報は有しないようなものも考えられる。 また、 後述する ようにマツプを複数の分割マップに分割し、 この分割マップにマップォブジェク トを設定するような構成とする場合には、 図 5に示すように仮想 3次元空間設定 部 1 0 4内にマップ設定部 1 1 0を設け、 このマヅプ設定部 1 1 0によりマップ '設定を行うことになる。
さて、 本実施例では、 仮想 3次元空間設定部 1 0 4が所定の演算処理を行うこ とにより、 図 6に示す表示物情報から、 位置情報及び方向情報が同一 (方向情報 を有しない表示物情報では位置情報が同一) であり、 オブジェクトナンバーが異 なる表示物情報を複数形成している。 具体的には、 仮想 3次元空間設定部 1 0 4 が表示物情報記憶部 1 0 8に記憶された図 6に示す表示物情報を読み出し、 ォブ ジェクトナンパ一のみを変更することで複数の表示物情報を形成している。 そし て、 この形成された複数の表示物情報を、 画像合成部 2 0 0に出力している。 図 8 (A) 、 (B) には、 このようにして形成された複数の表示物情報の一例 が示される。 図 8 (A) に.示す表示物情報は、 図 6に示す表示物情報と同一のも のである。 これに対して、 図 8 (B) に示す表示物倩報は、 図 8 (A) に示す表 示物情報とオブジェクトナンバーのみが異なっている。 例えば、 図 8 (A) の 0 B0と、 図 8 (B) の OBi+1とでは、 位置情報、 方向情報 (Χ0、 Υ0、 Ζ0、 Θ0、 00、 ρθ) が同一となっているが、 オブジェクトナンパ一が異なっている。 この ように位置情報及び方向情報が同一でありォブジェクトナンバーが異なる表示物 情報を形成することで、 図 9に示すようなポリゴン数の異なるレーシングカー 4 8Α、 48Β、 48 Cを表現することが可能となる。 即ち、 レーシングカー 48 A、 48 B、 48 Cでは、 位置情報、 方向情報は同一となっているが、 オブジェ ク トナンパ一は OB i、 OB j、 〇Bkと異なっている。 レーシングカー 48A、 48B、 48 Cのォブジェク ト画像倩報 (オブジェクト画像情報によりポリゴン 数、 ポリゴン情報等が表される) は、 図 5において表示物情報記憶部 2 12に格 納されており、 オブジェク トナンバーを指定することにより、 これらのオブジェ ク ト画像情報を読み出すことができる。 従って、 異なるオブジェクトナンバーを 指定することで、 図 9に示すようなポリゴン数の異なるレーシングカー 48 A、 48B、 48 Cを読み出すことができるわけである。 そして、 これらのレーシン グカー 48A、 48B、 48 Cは、 第 1、 第 2の仮想 3次元空間において同一位 置、 同一方向で配置される。 このように、 仮想 3次元空間を構成するォブジェク トをポリゴン数を異ならせて同一位置、 同一方向で配置することで、 表示物のポ リゴン数が異なる 2つの仮想 3次元空間を表現することが可能となる。
図 10、 図 1 1には、 ポリゴン数の異なるコースオブジェクト 30 A、 30B (マップオブジェクト) が示される。 コースオブジェクト 3 OAは、 多くのポリ ゴンにより精密に描かれている。 これに対して、 コースオブジェクト 30 Bは、 少ないポリゴンにより簡略化されて描かれている。 図 3に示すコース 20は、 こ のようなコースオブジェクトを並べることで構成される。 そして、 本実施例では、 ポリゴン数の多いコースオブジェクトで構成されたコースと、 ポリゴン数の少な いコースオブジェク卜で構成されたコースとが 2つ用意されることになる。 この 場合も、 上記のレーシングカーの場合と同様に、 図 6に示す表示物情報の中のォ ブジェクトナンバーのみを変更することにより、 コース (マップ) に関する複数 の表示物情報が形成される.ことになる。
以上のようにして、 ポリゴン数の異なるオブジェクトを同一位置、 同一方向に 配置できる複数の表示物情報を形成することで、 2つの仮想 3次元空間を表現す ることが可能となる。 そして、 ポリゴン数の多いオブジェクトで構成される第 1 の仮想 3次元空間での視界画像はメイン画面へと表示され、 ポリゴン数の少ない オブジェクトで構成される第 2の仮想 3次元空間での表示画像はサブ画面へと表 示される。 これにより、 サブ画面を形成するのに必要とされるポリゴン数を減ら すことができる。
なお、 仮想 3次元空間演算部 1 0 0から画像合成部 2 0 0に複数の表示物倩報 を出力する際には、 プレーヤの視点位置、 視線方向により決定される所定範囲に 配置されるォブジェク卜の表示物情報のみを出力することが望ましい。 例えば、 プレーヤの視点位置から遠く離れプレーヤから見ることができない移動体ォブジ ェクト、 マップオブジェクトについては画像合成処理を行う必要がない。 従って、 当該オブジェクトの表示物情報については画像合成部 2 0 0への出力を省略する ことが望ましい。 また、 例えば、 メイン画面に表示するオブジェクトについては、 プレーヤの正面方向の一定範囲にあるオブジェク卜の表示物倩報のみを出力する ようにする。 一方、 サブ画面に表示するオブジェクトについては、 プレーヤの後 方方向の一定範囲にあるオブジェク卜の表示物情報のみを出力するようにする。 これにより、 画像合成部 2 0 0における演算処理を軽減することが可能となる。 さて、 メイン画面、 サブ画面の形成に必要とされるポリゴン数を減らすために は、 更に、 以下の手法を用いることもできる。
例えば、 図 9に示すレーシングカー 4 8 A、 4 8 B、 4 8 Cを、 第 1の仮想 3 次元空間においては、 各々、 近距離用、 中距離用、 遠距離用のレーシングカーと して用いる。 即ち、 プレーヤ一力一とレーシングカーとの距離が近い場合には、 近距離用のレーシングカー 4 8 Aをメイン画面上に表示し、 プレーヤカーとの距 離が中ぐらいの場合、 遠い場合には、 各々、 中距離用、 遠距離用のレ一シングカ — 4 8 B、 4 8 Cをメイン画面上に表示する。 これにより、 メイン画面を形成す るためのポリゴン数を表示画像のリアル感を失わせることなく減らすことができ る。 そして、 第 2の仮想 3次元空間においては、 近距離用のレーシングカーとし てレーシングカー 4 8 Bを用い、 遠距離用のレーシングカーとしてレーシングカ 一 4 8 Cを用い、 プレーヤカーとの距離に応じて使い分ける。 これにより、 サブ 画面を形成するのに必要なポリゴン数を、 メィン画面を形成するのに必要なポリ ゴン数よりも少なくすることが可能となる。 そして、 サブ画面内でも近距離用、 遠距離用のレーシングカーを使い分けることにより、 サブ画面形成に必要なポリ ゴン数を更に減らすことが可能となる。
また、 例えば、 第 1の仮想 3次元空間では図 3におけるビル 6 0を配置させる 一方、 第 2の仮想 3次元空間ではビル 6 0の配置を省略するという手法を用いる こともできる。 具体的には、 図 6、 図 8において、 第 2の仮想 3次元空間用のビ ル 6 0については表示物情報を形成しない。 これにより、 サブ画面形成に必要な ポリゴン数を更に減らすことが可能となる。
また、 例えば図 1 2に示すように、 仮想 3次元空間を形成するマップを所定数 のマッププロヅクに分割し、 これらのマツプブロヅクにマップオブジェクトを配 置することでマップを表現する場合には、 以下のような手法を用いることができ る。 即ち、 この場合には、 例えば、 図 1 3において、 ポリゴン数の多い山 4 0 a を第 1の仮想 3次元空間に配置する。 そして、 ポリゴン数の少ない山 4 0 b、 4 0 cを第 2、 第 3の仮想 3次元空間に配置する。 これにより、 サブ画面形成に必 要なポリゴン数を減らすことができる。
また、 図 1 4に示すように、 分割数の異なる第 1、 第 2、 第 3のマップブロヅ ク 3 1、 3 2、 3 3を用意する。 そして、 第 1のマップブロック 3 1を、 第 1の 仮想 3次元空間のマップ分割のために用いる。 そして、 第 2のマップブロック 3 2、 あるいは、 第 3のマップブロック 3 3を第 2の仮想 3次元空間のマップ分割 のために用いる。 このようにして、 各ブロックに配置されるマップオブジェクト のポリゴン数が同一程度になるようにマップオブジェクトを形成すれば、 マップ を構成するのに必要なポリゴンの総数を第 1の仮想 3次元空間よりも第 2の仮想 3次元空間の方が少なくなるように設定できる。 これにより、 サブ画面形成に必 要なポリゴン数を減らすことができる。 そして、 このように分割数の異なるマツ プブロックを使い分ける手法は、 例えば戦闘機ゲーム、 フライ トシミュレ一夕等 のように、 仮想 3次元空間上のマップのほとんどがプレーヤから見ることができ るような場合に特に有効である。
なお、 この場合、 上述の遠距離用、 中距離用、 短距離用のレーシングカーの場 合と同様に、 第 1の仮想 3次元空間においては自機と分割マップとの距離に応じ て第 1、 第 2、 第 3のマップブロックを使い分け、 第 2の仮想 3次元空間におい ては、 上記距離に応じて第 2、 第 3のマップブロック数を使い分けるような手法 を採用することもできる。 このようにすれば、 サブ画面のみならずメイン画面の ポリゴン数も減らすことができる。
また、 以上に説明した、 マップを所定数のブロックに分割してマップオブジェ クトを配置する演算は、 例えばマップ設定部 1 1 0により行われる。
4 . 画像供給部についての説明
画像供給部 2 1 0は、 図 1 5に示すように、 オブジェクト画像情報記憶部 2 1 2、 処理部 2 1 5、 座標変換部 2 1 8、 クリッビング処理部 2 2 0、 ポリゴンデ 一夕変換部 2 2 4、 ソーティング処理部 2 2 6を含んでいる。 また、 クリツピン グ処理部 2 2 0は、 透視投影変換部 2 2 2を含んでいる。
画像供給部 2 1 0では、 仮想 3次元空間演算部 1 0 0により設定された仮想 3 次元空間の設定情報にしたがって、 各種の座標変換処理、 3次元演算処理が行わ れる。
即ち、 まず、 図 1 6に示すように、 レーシングカー、 コース等を表すオブジェ クト 3 0 0、 3 3 3、 3 3 4について、 それを構成するポリゴンを絶対座標 (ヮ 一ルド座標) 系 (XW、 YW、 Z ) で表現される仮想 3次元空間上に配置するため の演算処理が行われる。 次に、 これらの各オブジェクトについて、 それを構成す るポリゴンをプレーヤ 3 0 2の視点を基準とした視点座標系 (X v、 Y v、 Ζ ν ) へ座標変換する処理が行われる。 その後、 いわゆるクリッピング処理が行われ、 次に、 スクリーン座標系 (XS、 YS) への透視投影変換処理が行われる。 次に、 出力フォーマッ トの変換が行われ、 最後に、 ソーティング処理が行われる。
次に、 画像供給部 2 1 0の動作の詳細について説明する。
( 1 ) 初期設定 まず、 初期設定時に、 レーシングカー、 コース等を表すオブジェク トの画像情 報が、 オブジェクト画像情.報記憶部 2 1 2に書き込まれる。 但し、 オブジェクト 画像情報記憶部 2 1 2が R O Mである場合は、 この書き込みは必要とされない。
( 2 ) フレームデ一夕の転送
全てのオブジェクトに共通する視点情報、 即ちプレーヤの視点位置 '角度 .視 野角の情報、 モニタの情報等は、 1フィールド毎、 例えば ( 1 / 6 0 ) 秒毎に更 新され、 仮想 3次元空間演算部 1 0 0から処理部 2 1 5を介して座標変換部 2 1 8に転送される。 座標変換部 2 1 8では、 このデータを基に各種の座標変換が行 われる。 また、 モニタの角度 ·大きさ等の情報もクリッピング処理用のデータと してクリッビング処理部 2 2 0に転送される。 これらの転送されるデ一夕はフレ ームデ一夕と呼ばれる。
( 3 ) オブジェクトデ一夕及びポリゴンデータの形成
オブジェク トの位置情報、 方向情報、 オブジェクトナンパ一を含む表示物情報 が、 仮想 3次元空間演算部 1 0 0から処理部 2 1 5へと転送される。
次に、 前記のオブジェクトナンバーをアドレスとして、 オブジェク ト画像情報 記憶部 2 1 2から対応するォブジェクトの画像情報が読み出される。 即ち、 例え ばォブジェクトナンバーがレーシングカーを指定するものである場合は、 このレ 一シングカ一の画像情報がオブジェクト画像情報記憶部 2 1 2から読み出される。 オブジェクト画像情報記憶部 2 1 2には、 レーシングカー等の画像情報が複数枚 のポリゴンの集合 (多面体) として表現され格納されている。 処理部 2 1 5は、 デ一夕フォーマット形成部 2 1 7により、 この読み出されたデータからオブジェ 'ク トデ一夕及びポリゴンデ一夕を組にしたデータを形成して、 座標変換部 2 1 8 以下へと順次転送する。
ここで、 オブジェクトデータとは、 オブジェクトの位置情報、 回転情報、 その 他の付属データ等で構成されるデ一夕をいう。 また、 ポリゴンデ一夕とは、 ォブ ジェクトを構成するポリゴンについての画像情報であり、 ポリゴンの頂点座標、 頂点テクスチャ座標、 頂点輝度情報、 その他の付属デ一夕で構成されるデ一夕を いう。
これらのデータは、 データフォーマツ ト形成部 2 1 7により、 図 1 7 (A;) 、 ( B ) に示すようなデ一夕フォーマットに変換される。
( 4 ) 座標変換部等での動作
座標変換部 2 1 8では、 処理部 2 1 5から転送されたプレーヤの視点倩報と、 処理部 2 1 5から転送されたレーシングカー位置情報、 回転情報からなるォブジ ェクトデータをもとに、 ポリゴンデータに対して各種の座標変換が行われる。 即 ち、 ポリゴンデータに対するローカル座榡系での回転、 ワールド座標系への平行 移動、 視点座標系への回転等が行われる。
クリッビング処理部 2 2 0では、 これらの座標変換が終了したポリゴンデ一夕 に対してクリッピング処理が行われる。 次に、 クリッピング処理部 2 2 0内の透 視投影変換部 2 2 2において、 スクリーン座標系への透視投影変換が行われる。 なお、 本実施例では、 このクリッピング処理と透視投影変換処理とを同一のハー ドウエアを用いて行っている。
ポリゴンデータ変換部 2 2 4では、 クリッビング処理により四角形以外の多角 形に変形してしまったポリゴンのデータを四角形のポリゴンのデータに変換する 処理が行われる。 変換されたポリゴンデ一夕は、 次段のソーティング処理部 2 2 6に出力される。 具体的には、 例えばクリッピング処理によりポリゴンが三角形 に変形してしまった場合には、 この三角形のポリゴンが擬似的に四角形のポリゴ ンとなるように変換処理が行われる。 即ち、 元の三角形のポリゴンの頂点の番号 を 1、 2、 3とした場合には、 変換後の四角形ポリゴンの頂点に対して元のポリ ゴンの頂点番号 1、 2、 3、 1を割り当てる。 そして、 この割り当てられた頂点 番号により元のポリゴンの頂点座標、 頂点テクスチャ座標、 頂点輝度情報等を指 '定することで、 四角形のポリゴンデータへの変換処理が行われる。 また、 例えば クリッビング処理によりポリゴンが五角形に変形してしまった場合には、 該ポリ ゴンを四角形のポリゴンと擬似的な四角形のポリゴン (上記と同様に三角形のポ リゴンを擬似的に四角形のポリゴンとみなしたもの) に分割する。 そして、 例え ば元の五角形のポリゴンの頂点の番号を 1、 2、 3、 4、 5とした場合には、 分 割された 2つの四角形ポリゴンの頂点に対して、 各々、 元のポリゴンの頂点番号 1、 2、 3、 4及び 1、 4、 5、 1を割り当てる。 そして、 この割り当てられた 頂点番号により元のポリゴンの頂点座標、 頂点テクスチャ座標、 頂点輝度情報等 を指定することで、 四角形のポリゴンデータへの変換処理が行われることになる また、 クリッピング処理によりポリゴンが六角形に変形してしまつた場合には、
2つの四角形ポリゴンに分割して上記と同様の処理を行う。
なお、 本実施例においてバックミラーの画像形成を行う場合に、 画像の左右反 転処理により裏となったポリゴンについては、 ポリゴンデータ変換部 2 2 4によ り表ポリゴンへの変換処理が行われる。 例えば、 頂点番号が 1、 2、 3、 4のポ リゴンが左右反転された場合には、 変換後のポリゴンの頂点に対する頂点番号の 割り当てを 1、 4、 3、 2に入れ替え、 この入れ替えられた頂点番号により元の ポリゴンの頂点座標等を指定する。 これにより、 左右反転処理により裏となった ポリゴンを表ポリゴンとして出力することが可能となる。 また、 例えば、 上記の ようにクリッビング処理により五角形となったポリゴンを左右反転処理する場合 には、 これを四角形ポリゴンと擬似的な四角形ポリゴンに分割するとともに、 こ れらの四角形ポリゴンへの頂点番号の割り振りを、 各々、 1、 4、 3、 2及び 1、 5、 4、 1とする。 これにより、 ポリゴンの分割処理と、 左右反転により裏とな つたポリゴンの表ポリゴンへの変換を同時に行うことが可能となる。
さて、 本実施例では、 図 1 7 ( A ) に示すように、 データフォーマツ ト形成部 2 1 7により、 メイン画面用データと、 サブ画面用デ一夕とが形成され、 これら のデ一夕が 1フレーム内に処理すべきデータとして、 座標変換部 2 1 8等に転送 される。 ここで、 メイン画面用データでは、 フレームデータを先頭に、 オブジェ ク ト 1 A、 2 A、 3 A等のデータが連なっている。 即ち、 当該フレームにおいて メイン画面に表示すべき全てのオブジェク トに関するデータが連なっている。 そ して、 例えばオブジェクト 1 Aのォブジェクトデ一夕の後ろには当該オブジェク トを構成する全てのポリゴンのポリゴンデ一夕が連なっている。 これらのポリゴ ンデ一夕は、 例えば図 1 7 ( B ) に示すようなフォーマッ トとなっておりポリゴ ンの頂点座標情報等を含んでいる。 同様に、 オブジェク ト 2 Aのオブジェクトデ 一夕の後ろにも当該オブジェクトを構成する全てのポリゴンのポリゴンデ一夕が 連なっている。
サブ画面用デ一夕についても、 メイン画面用デ一夕と全く同様のデ一夕フォー マツト形式となっている。 但し、 オブジェクト 1 Aとォブジェクト 1 Bとでは、 オブジェクトの配置位置、 方向は同一であるが、 オブジェクトデ一夕に連なるポ リゴンデ一夕の数が異なっている。 オブジェクト 2 Aとォブジェクト 2 Bとの相 違も同様である。 本実施例では、 データフォーマッ ト形成部 2 1 7により、 この ようなフォーマツ卜のデータを形成することで、 メイン画面とサブ画面とで表示 されるオブジェクトのポリゴン数を異ならせることが可能となっている。 更に、 メイン画面用デ一夕とサブ画面用データとで、 視点位置、 視点方向等を異ならせ ることもできる。 これには、 メイン画面用データ、 サブ画面用データの先頭に置 かれるフレームデータの内容を異ならせればよい。 例えば、 メイン画面用データ のフレームデータでは、 視線方向が正面向きであるように設定し、 サブ画面用デ —夕のフレームデータでは、 視線方向が後向きであるように設定すれば、 正面画 像であるメイン画面上にバックミラ一を形成することが可能となる。 但し、 この 場合には、 画像を左右反転して表示する必要があるが、 この左右反転処理は上記 のように本実施例においてはポリゴンデータ変換部 2 2 4において行われる。
5 . 画像形成部についての説明
画像形成部 2 2 8は、 このポリゴンの各頂点ごとに与えられた頂点画像情報に 基づいてポリゴン内部の画像情報を演算して、 これを C R T 1 0に出力するもの であり、 図 1 8に示すように、 プロセッサ部 (テクスチャ演算手段) 2 3 0、 テ クスチヤ情報記憶部 2 4 2、 パレツト&ミキサ回路 2 4 4とを含む。
さて、 本実施例では、 より高品質の画像をより効率よく画像合成すべく、 テク スチヤマッピング手法及びグーローシェ一ディング手法と呼ぶ手法により画像合 '成を行っている。 以下、 これらの手法の概念について簡単に説明する。
' 図 1 9には、 テクスチャマッピング手法の概念について示される。
図 1 9に示すようなオブジェクト 3 3 2の各面に例えば格子状、 縞状の模様等 が施されたものを画像合成する場合には、 従来は、 オブジェクトをポリゴン(1 )〜 (80) (ポリゴン(41 )〜(80 )については図示せず) に分割し、 これらの全てのポリ ゴンに対して画像処理を行っていた。 その理由は、 従来の画像合成装置では、 1 つのポリゴン内の色の塗りつぶしは、 指定された一つの色でしか行えなかったた めである。 この結果、 複雑な模様等が施された高品質な画像を合成する場合には、 ポリゴン数が非常に増加してしまうため、 実質的に、 このような高品質の画像を 合成することは不可能であつた。
そこで、 本実施例では、 オブジェクト 3 3 2の回転、 並進、 透視投影変換等の 座標変換及びクリッピング等の処理を、 各面を構成するポリゴン A、 B、 Cごと に行い (具体的には各ポリゴンの頂点ごと) 、 格子状、 縞状の模様については、 テクスチャとして取り扱い、 ポリゴンの処理と分割して処理を行っている。 即ち、 図 1 8に示すように画像形成部 2 2 8内にはテクスチャ情報記憶部 2 4 2が設け られ、 この中には各 3次元ポリゴンにはり付けるべきテクスチャ情報、 つまり格 子状、 縞状の模様等の画像情報が記憶されている。
そして、 このテクスチャ情報を指定するテクスチャ倩報記憶部 2 4 2のァドレ スを、 各 3次元ポリゴンの頂点テクスチャ座標 V TX、 V TYとして与えておく。 具体的には、 図 1 9に示すように、 ポリゴン Aの各頂点に対しては、 (V TX0、 V TY0) 、 (V TX1、 V TY1) 、 (V TX2、 V TY2) 、 (V TX3、 V TY3) の頂 点テクスチャ座標が設定される。
画像形成部 2 2 8内のプロセッサ部 2 3 0では、 この頂点テクスチャ座標 V T X、 V TYから、 ポリゴン内の全てのドッ トについてのテクスチャ座標 ΤΧ、 ΤΥが 求められる。 そして、 求められたテクスチャ座標 ΤΧ、 ΤΥにより、 テクスチャ情 報記憶部 2 4 2から対応するテクスチャ情報が読み出され、 パレツ ト&ミキサ回 路 2 4 4に出力される。 これにより、 図 1 9に示すような、 格子状、 縞状等のテ クスチヤが施された 3次元オブジェクトを画像合成することが可能となる。
また、 本実施例では前記したようにオブジェクト 3 3 2をポリゴンの固まりと して表現している。 従って、 各 3ポリゴンの境界における輝度情報の連続性が問 齒となる。 例えば複数のポリゴンを用いて球を表現しょうとする場合、 ポリゴン 内の全ドットが全て同じ輝度に設定されると、 実際は 「丸み」 を表現したいのに、 各ポリゴンの境界が 「丸み」 として表現されない事態が生じる。 そこで、 本実施 例では、 グーローシェーディングと呼ばれる手法によりこれを回避している。 こ の手法では、 前記したテクスチャマツビング手法と同様に、 3次元ポリゴンの各 頂点に図 1 9に示すように頂点輝度情報 V B R I 0~V B R I 3を与えておき、 画 像形成部 2 2 8で最終的に画像表示する際に、 この頂点輝度情報 V B R I 0〜V B 1113ょり 3次元ポリゴン内の全てのドッ 卜についての輝度情報を補間により求め ている。
さて、 図 20 (A) 〜 (K) には、 テクスチャマッピングについての演算処理 の流れが視覚的に示されている。 既に述べたように、 画像形成部 228では、 ポ リゴンの頂点画像情報に基づいて、 ポリゴン内の全ての画像情報を形成する演算 処理が行われる。 この場合、 ポリゴンにはり付けるべきテクスチャ情報は、 テク スチヤ情報記憶部 342に記憶されており、 このテクスチャ倩報を読み出すため に、 テクスチャ座標 TX、 ΤΥが必要となる。 そして、 図 20 (F) 、 (G) 、 (Η) 、 (I) には、 ポリゴン内の全ての透視変換テクスチャ座標 ΤΧ*、 ΤΥ*を 求める演算処理の様子が視覚的に示されている。 また、 図 20 (Β) 、 (C) 、 (D) 、 (Ε) には、 テクスチャ情報を表示すべき座標である透視変換表示座標 Χ Υ*を求める演算処理の様子が視覚的に示されている。 以上の演算はプロセ ッサ部 230により行われる。 そして、 図 20 ( J) に示すように、 演算された 透視変換テクスチャ座標 ΤΧ*、 ΤΥ*はテクスチャ座標 ΤΧ、 ΤΥに逆透視投影変換 され、 この逆透視投影変換されたテクスチャ座標 ΤΧ、 ΤΥにより、 テクスチャ情 報記憶部 242からテクスチャ倩報が読み出される。 最後に、 図 20 (Κ) に示 すように、 演算された Χ*、 Υ*の座標位置に、 読み出されたテクスチャ情報を対 応づけることで、 画像合成が行われることになる。
図 21 (A) 、 (Β) には、 レーシングカーのオブジェクトにテクスチャマツ ピングを施した様子が視覚的に示される。 テクスチャ情報記憶部 242には、 図 2 1 (Α) に示すようなテクスチャ情報 902〜9 16が記憶されており、 これ らをレーシングカーのオブジェクトにマツビングすることで、 図 21 (Β) に示 すようなリアル感溢れるレーシングカーを表現することが可能となる。
図 22には、 テクスチャ情報記憶部 242により構成されるテクスチャ記憶平 面の一例が示される。 図 22に示すように、 ポリゴンへのテクスチャリングは、 ポリゴンにマツビングしたいテクスチャのテクスチャ座標 ΤΧ、 ΤΥを指定するこ とにより行われることになる。
さて、 本実施例では、 メイン画面における表示物のみならず、 サブ画面におけ る表示物に対してもテクスチャマッピングを行っている。 例えば、 図 4において、 メイン画面 1に映る路面 21のみならず、 ノ、'ヅクミラー (サブ画面) 2に映る路 面 23にもァスフアルト状の模様、 セン夕一ライン 26からなるテクスチャが施 されている。 これにより、 サブ画面に映る画像のリアル感を高めている。 そして、 この場合、 本実施例では、 第 1の仮想 3次元空間における表示物と、 これと同一 位置、 同一方向で第 2の仮想 3次元空間に配置される表示物とで、 テクスチャ情 報記憶部 242に記憶されるテクスチャ情報が共通に使用される。
例えば、 図 23 (A) には、 第 1の仮想 3次元空間に配置されるマップォブジ ェクトの一例が示される。 このマップオブジェクトは同図に示すように、 ポリゴ ン al〜a5、 bl、 b2、 c l、 c2、 d 1〜 d 3により構成される。 一方、 図 23 (B) には、 第 2の仮想 3次元空間に配置されるマップオブジェクトの一 例が示される。 このマップオブジェクトは図 23 (A) に示すマップオブジェク トを簡略化して表現したものであり、 ポリゴン 、 b、 c、 dにより構成される。 これらのマップオブジェクトは、 各々の仮想 3次元空間において同一位置、 同一 方向に配置されるものである。 図 23 (C) には、 これらのマップオブジェクト にはり付けるテクスチャ情報及びこのテクスチャ情報が格納されるテクスチャ平 面の一例が示される。 このテクスチャ情報はァスフアルト状の模様及びセンター ラインから構成される。
このテクスチャを図 23 (A) に示すマップオブジェクトにマヅビングする場 合は以下のようにする。 例えば、 頂点 A、 B、 K、 Lからなるポリゴン a 1にテ クスチヤマツビングを行う場合を考える。 この場合には、 ポリゴン a 1の頂点テ クスチヤ座標として、 図 23 (C) に示す (VTXA、 VTYA) 、 (VTXB、 VT YB) 、 (VTXKs VTYK) 、 (VTXL、 VTYL) を与える。 すると、 プロセッサ 部 230により、 図 20 (A) 〜 (K) に示した処理により、 ポリゴン a 1内の 全てのドット (ビクセル) におけるテクスチャ座標 ΤΧ、 ΤΥが得られる。 そして、 この得られた ΤΧ、 ΤΥによりテクスチャ情報記憶部 242からテクスチャ情報を 読み出すことで、 ポリゴン a 1に対するテクスチャマッピングが完了する。 ポリ ゴン a2、 a3、 a4、 a 5に対するテクスチャマッピングも同様にして行うこ とができる。
—方、 図 23 (B) に示す簡略化されたマップオブジェクトに対しては、 本実 施例では以下のようにしてテクスチャマツビングを行っている。 例えば頂点 A, 、 F, 、 G' 、 L, からなるポリゴン aにテクスチャマツビングを行う場合を考え る。 この場合には、 ポリゴン aの頂点テクスチャ座標として、 図 23 (C) に示 す (VTXA、 VTYA)、 (VTXF、 VTYF) 、 (VTXG、 VTYG)、 (VTXL、 VTYL) を与えておく。 即ち、 図 23 (A) の A、 F、 G、 L点に与えられる頂 点テクスチャ座標と同じ頂点テクスチャ座標を与えておく。 すると、 プロセッサ 部 230の処理により、 ポリゴン a 1内の全てのドットにおけるテクスチャ座標 ΤΧ、 ΤΥが得られる。 そして、 この得られた ΤΧ、 ΤΥによりテクスチャ情報記憶 部 242からテクスチャ情報を読み出すことで、 ポリゴン aに対するテクスチャ マッピングが完了する。
このように、 本実施例では、 精密なオブジェクトと、 これに対応する簡略化さ れたオブジェクトとの間でテクスチャ情報を共有して使用している。 そして、 各 ポリゴンには頂点テクスチャ座標だけが与えられており、 ポリゴン内のドットに おけるテクスチャ座標は図 20 (A) 〜 (K) に示す補間処理により得られる。 従って、 このようにテクスチャ情報を共有して使用しても、 図 23 (A) , 図 2 3 (B) に示すマップオブジェクトに対して図 23 (C) に示すようなテクスチ ャを同様にマツビングすることが可能となる。 そして、 このようにテクスチャ情 報を共有して使用することにより、 テクスチャ情報記憶部 242を精密なォブジ ェクト用、 簡略化されたオブジェクト用に 2種類設ける必要がなくなるため、 テ クスチヤ情報記憶部 242に必要な記憶容量を小さくすることができ、 ハードウ エアの小規模化を図ることが可能となる。
なお、 ポリゴンに与えられる頂点テクスチャ座標は、 オブジェクト画像情報記 憶部 212に画像情報の一部として記憶されている (図 17 (B)参照) 。 従つ て、 図 23 (B) のポリゴン aの頂点 A, 、 F, 、 G, 、 L, に対して、 図 23 (A) の頂点 A、 F、 G、 Lと共通の頂点テクスチャ座標を与え、 画像情報記憶 部 212に記憶することになる。 また、 本実施例では、 頂点輝度情報 VBRIに ついても、 A, 、 F, 、 G, 、 L, と A、 F、 G、 Lとの間で共通に与えている c これにより、 グー口一シェ一ディング手法による輝度演算もポリゴン aとポリゴ ン a l〜a 5とで同様に行われることになる。 なお、 本発明は上記実施例に限定されるものではなく、 本発明の要旨の範囲内 で種々の変形実施が可能である。
例えば本実施例では、 レーシングカーゲームを例にとり説明したが、 本発明は これに限らず、 あらゆる種類の 3次元ゲームに適用でき、 例えば 3次元的にマツ プが形成された宇宙船ゲーム等にも適用できる。
また、 本発明は、 業務用の 3次元ゲームのみならず、 例えば、 家庭用のゲーム 装置、 フライ トシミュレ一夕、 教習所等で使用されるドライビングシミュレータ 等にも適用することができる。
また、 仮想 3次元空間演算部等における演算処理は、 専用の画像処理用デパイ スにより処理することもできるし、 マイクロコンピュー夕等を利用して処理する ことも可能である。
更に、 画像合成部等で行われる演算処理も本実施例で説明したものに限定され るものではなく、 例えばテクスチャマツピングの手法も上記に説明したものに限 られない。
また、 本発明におけるサブ画面は、 本実施例で説明したパックミラ一に限らず 種々のものに適用できる。 例えば、 サイ ドミラーに適用することも可能である。 また、 例えば図 2 4に示す未来戦車ゲームでは、 サブ画面 8 0 1には、 プレーヤ の操縦する未来戦車 8 2 0を上から見た画像が映し出される。 また、 サブ画面 8 0 1に、 例えば未来戦車 8 2 0が発射したミサイル 8 9 8の先端に取り付けられ たカメラから見える画像を映し出してもよい。
また、 本発明では、 サブ画面に映し出される表示物のポリゴン数を少ないもの とし簡略化して表現することとしたが、 逆に、 サブ画面に映し出される表示物の ポリゴン数を多いものとし精密に表現することも可能である。 このようにするこ とで、 例えばメイン画面上に物を拡大して見ることができる虫眼鏡のようなサブ 画面を表示することが可能となる。
また、 本発明により画像合成された疑似 3次元画像は、 C R T 1 0のようなデ イスプレイのみならずヘッ ドマウントディスプレイ (H M D ) と呼ばれるデイス プレイにも当然に表示できる。

Claims

請 求 の 範 囲
( 1 ) 仮想 3次元空間を構成する複数の表示物の位置あるいは位置及び方向を設 定することで仮想 3次元空間の形成演算を行う仮想 3次元空間演算手段と、 該仮想 3次元空間演算手段からの演算結果に基づいて前記仮想 3次元空間にお ける任意の視点からの視界画像を合成する画像合成手段とを含み、
前記仮想 3次元空間演算手段が、
前記表示物の位置あるいは位置及び方向が同一であり表示物を構成するポリゴ ンの数が異なる複数の仮想 3次元空間を形成する手段を含み、
前記画像合成手段が、
メインの画面に表示する画像として、 前記複数の仮想 3次元空間の中で表示物 のポリゴン数が多い仮想 3次元空間における視界画像を合成する手段と、
1又は複数のサブの画面に表示する画像として、 表示物のポリゴン数が少ない 他の仮想 3次元空間における視界画像を合成する手段とを含むことを特徴とする 3次元シミュレータ装置。
( 2 ) 請求項 1において、
表示物を構成するポリゴンに対してテクスチャを施すための演算を行うテクス チヤ演算手段と、
該テクスチャ演算手段において施されるテクスチャの情報を記憶するテクスチ ャ情報記憶手段とを含み、
前記テクスチャ演算手段が、
前記異なる仮想 3次元空間において位置あるいは位置及び方向が同一である前 記表示物の一部又は全部に対して、 前記テクスチャ情報記憶手段に記憶されるテ クスチヤ情報を共通に使用する手段を含むことを特徴とする 3次元シミュレータ
( 3 ) 仮想 3次元空間を構成する複数の表示物のオブジェクトナンバー及び位置 情報あるいはオブジェクトナンパ一及び位置情報及び方向情報を含む表示物情報 の設定を行うことで仮想 3次元空間の形成演算を行う仮想 3次元空間演算手段と、 前記オブジェクトナンパ一により指定されるォブジェク卜の画像情報を記憶す る画像情報記憶手段と、 前記表示物情報と、 前記画像情報記憶手段から前記オブジェクトナンバーに基 づき読み出される前記画像情報とに基づいて、 仮想 3次元空間における任意の視 点からの視界画像を合成する画像合成手段とを含み、
前記仮想 3次元空間演算手段が、
位置情報あるいは位置情報及び方向情報が同一で、 オブジェクトナンバーが異 なる複数の表示物情報を形成する手段を含み、
前記画像情報記憶手段には、 前記異なるオブジェクトナンバーにより指定され るオブジェク卜についてはォブジヱクトを構成するポリゴンの数が異なるように 前記画像情報が記憶され、
前記画像合成手段が、
ポリゴン数が多いオブジェクトの画像情報に基づいて、 メイン画面に表示され る視界画像を合成する手段と、
ポリゴン数が少ないオブジェクトの画像情報に基づいて、 1又は複数のサブ画 面に表示される視界画像を合成する手段とを含むことを特徴とする 3次元シミュ レー夕装置。
( 4 ) 請求項 3において、
前記画像情報記憶手段には、 ポリゴン数が異なる複数のオブジェク 卜の画像情 報が記憶され、
前記画像合成手段が、
前記複数のオブジェクトの中から所与の選択範囲で選択されたォブジェクトの 画像倩報に基づいて視界画像を合成する手段を含み、
メイン画面の視界画像を合成するための前記オブジェクトの前記選択範囲が、 サブ画面の視界画像を合成するための前記オブジェク卜の前記選択範囲よりもポ リゴン数の多いオブジェクトをより多く含む選択範囲となっていることを特徴と する 3次元シミュレータ装置。
( 5 ) 請求項 3において、
前記仮想 3次元空間演算手段が、
表示物の一部については前記複数の表示物情報の形成を省略する手段を含み、 メイン画面に表示される表示物の一部については、 サブ画面への表示が省略さ れることを特徴とする 3次元シミュレ一夕装置。
( 6 ) 請求項 4において、
前記仮想 3次元空間演算手段が、
表示物の一部については前記複数の表示物情報の形成を省略する手段を含み、 メイン画面に表示される表示物の一部については、 サブ画面への表示が省略さ れることを特徴とする 3次元シミュレータ装置。
( 7 ) 請求項 3乃至 6のいずれかにおいて、
仮想 3次元空間を構成するマップが所定数に分割され、 該分割されたマツプに マップオブジェクトを配置することでマップの表示を行う手段を含み、
前記メイン画面に表示されるマップの分割数が前記サブ画面に表示されるマツ プの分割数よりも多いことを特徴とする 3次元シミュレータ装置。
( 8 ) 請求項 3乃至 6のいずれかにおいて、
オブジェクトを構成するポリゴンに対してテクスチャを施すための演算を行う テクスチャ演算手段と、
該テクスチャ演算手段において施されるテクスチャの情報を記憶するテクスチ ャ情報記憶手段とを含み、
前記画像情報記憶手段には、 前記テクスチヤ情報記憶手段において前記テクス チヤ情報を指定するための頂点テクスチャ座標が、 前記画像情報の一部として記 憶され、
前記テクスチャ演算手段が、
メイン画面に表示するォブジェクトのポリゴンにテクスチャを施すために使用 する前記頂点テクスチャ座標の一部を、 サブ画面に表示するォブジェクトのポリ ゴンにテクスチャを施す場合に共通に使用する手段を含むことを特徴とする 3次 元シミュレータ装置。
( 9 ) 仮想 3次元空間を構成する複数の表示物の位置あるいは位置及び方向を設 定することで仮想 3次元空間の形成演算を行う仮想 3次元空間演算ステップと、 該仮想 3次元空間演算ステツプでの演算結果に基づいて前記仮想 3次元空間に おける任意の視点からの視界画像を合成する画像合成ステップとを含み、 前記仮想 3次元空間演算ステップが、 前記表示物の位置あるいは位置及び方向が同一であり表示物を構成するポリゴ ンの数が異なる複数の仮想 3次元空間を形成するステップを含み、
前記画像合成ステップが、
メインの画面に表示する画像として、 前記複数の仮想 3次元空間の中で表示物 のポリゴン数が多い仮想 3次元空間における視界画像を合成するステップと、
1又は複数のサブの画面に表示する画像として、 表示物のポリゴン数が少ない 他の仮想 3次元空間における視界画像を合成するステップとを含むことを特徴と する画像合成方法。
( 1 0 ) 請求項 9において、
表示物を構成するポリゴンに対してテクスチャを施すための演算を、 所与のテ クスチヤ情報記憶手段に記憶されるテクスチャ情報に基づいて行うテクスチャ演 算ステップを含み、
前記テクスチヤ演算ステツプが、
前記異なる仮想 3次元空間において位置あるいは位置及び方向が同一である前 記表示物の一部又は全部に対して、 前記テクスチャ情報記憶手段に記憶されるテ クスチヤ情報を共通に使用するステップを含むことを特徴とする画像合成方法。
( 1 1 ) 仮想 3次元空間を構成する複数の表示物のォブジヱク トナンパ一及び位 置情報あるいはオブジェクトナンパー及び位置情報及び方向情報を含む表示物情 報の設定を行うことで仮想 3次元空間の形成演算を行う仮想 3次元空間演算ステ ップと、
前記表示物情報と、 所与の画像情報記憶手段から前記オブジェクトナンパ一に 基づいて読み出される画像情報とに基づいて、 仮想 3次元空間における任意の視 点からの視界画像を合成する画像合成ステップとを含み、
前記仮想 3次元空間演算ステップが、
位置情報あるいは位置情報及び方向情報が同一で、 オブジェクトナンバーが異 なる複数の表示物情報を形成するステップを含み、
前記画像情報記憶手段には、 前記異なるオブジェクトナンバーにより指定され るォブジェクトについてはォブジェクトを構成するポリゴンの数が異なるように 前記画像情報が記憶され、 前記画像合成ステップが、
ポリゴン数が多いオブジェク卜の画像情報に基づいて、 メイン画面に表示され る視界画像を合成するステップと、
ポリゴン数が少ないオブジェクトの画像情報に基づいて、 1又は複数のサブ画 面に表示される視界画像を合成するステップとを含むことを特徴とする画像合成 方 ¾¾。
( 1 2 ) 請求項 1 1において、
オブジェクトを構成するポリゴンに対してテクスチャを施すための演算を、 所 与のテクスチャ情報記憶手段に記憶されるテクスチャ情報に基づいて行うテクス チヤ演算ステップを含み、
前記画像情報記憶手段には、 前記テクスチヤ情報記憶手段に記憶される前記テ クスチヤ情報を指定するための頂点テクスチャ座標が、 前記画像情報の一部とし て scfeされ、
前記テクスチャ演算ステップが、
メイン画面に表示するォブジェクトのポリゴンにテクスチャを施すために使用 する前記頂点テクスチャ座標の一部を、 サブ画面に表示するォブジェクトのポリ ゴンにテクスチャを施す場合に共通に使用するステップを含むことを特徴とする 画像合成方法。
PCT/JP1995/001203 1994-06-17 1995-06-16 Simulateur 3d et procede de generation d'image WO1995035139A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
GB9603483A GB2295757B (en) 1994-06-17 1995-06-16 Three-dimensional simulator and image synthesis method
US08/596,236 US5966132A (en) 1994-06-17 1995-06-16 Three-dimensional image synthesis which represents images differently in multiple three dimensional spaces
JP8501944A JP3056256B2 (ja) 1994-06-17 1995-06-16 3次元シミュレータ装置及び画像合成方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP15927094 1994-06-17
JP6/159270 1994-06-17

Publications (1)

Publication Number Publication Date
WO1995035139A1 true WO1995035139A1 (fr) 1995-12-28

Family

ID=15690111

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1995/001203 WO1995035139A1 (fr) 1994-06-17 1995-06-16 Simulateur 3d et procede de generation d'image

Country Status (4)

Country Link
US (1) US5966132A (ja)
JP (1) JP3056256B2 (ja)
GB (1) GB2295757B (ja)
WO (1) WO1995035139A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000061144A (ja) * 1998-08-25 2000-02-29 Namco Ltd 画像生成装置、ゲーム装置及び情報記憶媒体

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7859551B2 (en) 1993-10-15 2010-12-28 Bulman Richard L Object customization and presentation system
US6343987B2 (en) 1996-11-07 2002-02-05 Kabushiki Kaisha Sega Enterprises Image processing device, image processing method and recording medium
JP3117665B2 (ja) * 1997-08-26 2000-12-18 ジーイー横河メディカルシステム株式会社 画像表示方法および画像表示装置
US8209120B2 (en) 1997-10-22 2012-06-26 American Vehicular Sciences Llc Vehicular map database management techniques
US6157337A (en) * 1999-01-29 2000-12-05 Sony Corporation 3D image acquiring and viewing systems and methods
US6344837B1 (en) 2000-06-16 2002-02-05 Andrew H. Gelsey Three-dimensional image display with picture elements formed from directionally modulated pixels
US7375728B2 (en) * 2001-10-01 2008-05-20 University Of Minnesota Virtual mirror
US20050149251A1 (en) * 2000-07-18 2005-07-07 University Of Minnesota Real time high accuracy geospatial database for onboard intelligent vehicle applications
US6977630B1 (en) * 2000-07-18 2005-12-20 University Of Minnesota Mobility assist device
US20020080279A1 (en) * 2000-08-29 2002-06-27 Sidney Wang Enhancing live sports broadcasting with synthetic camera views
US7101988B2 (en) * 2000-10-12 2006-09-05 Marical, Inc. Polyvalent cation-sensing receptor in Atlantic salmon
WO2002050778A1 (de) * 2000-12-21 2002-06-27 Active Online Gmbh Elektronisches bildverarbeitungsverfahren-und-system insbesondere zum mapping graphischer objekte
JP3597792B2 (ja) * 2001-04-05 2004-12-08 コナミ株式会社 3次元画像処理方法、装置、3次元画像処理プログラム及びビデオゲーム装置
KR100393350B1 (ko) * 2001-04-23 2003-08-02 (주)가시오페아 가상경기 시스템 및 방법
US7552008B2 (en) * 2001-07-18 2009-06-23 Regents Of The University Of Minnesota Populating geospatial database for onboard intelligent vehicle applications
US6990681B2 (en) 2001-08-09 2006-01-24 Sony Corporation Enhancing broadcast of an event with synthetic scene using a depth map
US7339609B2 (en) * 2001-08-10 2008-03-04 Sony Corporation System and method for enhancing real-time data feeds
US7173672B2 (en) * 2001-08-10 2007-02-06 Sony Corporation System and method for transitioning between real images and virtual images
US7091989B2 (en) * 2001-08-10 2006-08-15 Sony Corporation System and method for data assisted chroma-keying
US20030030658A1 (en) * 2001-08-10 2003-02-13 Simon Gibbs System and method for mixed reality broadcast
JP3577016B2 (ja) * 2001-08-24 2004-10-13 コナミ株式会社 3次元画像処理プログラム、3次元画像処理方法及びビデオゲーム装置
US7209051B2 (en) * 2002-03-05 2007-04-24 University Of Minnesota Intersection assistance system and method
US20030187820A1 (en) 2002-03-29 2003-10-02 Michael Kohut Media management system and process
JP3526302B1 (ja) * 2003-03-19 2004-05-10 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置、ゲーム制御方法、及びプログラム
US7358973B2 (en) * 2003-06-30 2008-04-15 Microsoft Corporation Mixture model for motion lines in a virtual reality environment
US8456475B2 (en) * 2003-06-30 2013-06-04 Microsoft Corporation Motion line switching in a virtual environment
JP4312737B2 (ja) * 2005-05-13 2009-08-12 任天堂株式会社 ゲームプログラムおよびゲーム装置
US20070048690A1 (en) * 2005-08-26 2007-03-01 Doron Precision Systems, Inc. Simulated convex mirrors for driving simulators
US9858712B2 (en) * 2007-04-09 2018-01-02 Sam Stathis System and method capable of navigating and/or mapping any multi-dimensional space
WO2008139717A1 (ja) * 2007-05-09 2008-11-20 Panasonic Corporation 表示装置、表示方法、表示プログラム
DE102008058580B4 (de) 2008-11-23 2012-10-11 Hamberger Industriewerke Gmbh WC-Sitzgelenk
US10635734B2 (en) 2009-10-12 2020-04-28 The Boeing Company System and method for utilizing a three dimensional model for accessing databases
US10832182B2 (en) 2009-10-12 2020-11-10 The Boeing Company Method and system for managing a program relating to a product
US9643316B2 (en) 2009-10-27 2017-05-09 Battelle Memorial Institute Semi-autonomous multi-use robot system and method of operation
JP5115568B2 (ja) * 2009-11-11 2013-01-09 カシオ計算機株式会社 撮像装置、撮像方法、及び撮像プログラム
JP5525250B2 (ja) * 2009-12-08 2014-06-18 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームの表示方法及びゲームシステム
US20110153266A1 (en) * 2009-12-23 2011-06-23 Regents Of The University Of Minnesota Augmented vehicle location system
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6367953B2 (ja) 2014-01-10 2018-08-01 ノキア テクノロジーズ オサケユイチア ビューの視覚表現のディスプレイ
CN104408989B (zh) * 2014-11-27 2016-10-12 南京中车浦镇城轨车辆有限责任公司 一种用于车辆模拟驾驶系统的后视镜仿真方法
US9665989B1 (en) * 2015-02-17 2017-05-30 Google Inc. Feature agnostic geometric alignment
US11203295B2 (en) * 2017-04-14 2021-12-21 Panasonic Automotive Svstems Company of America, Division of Panasonic Corporation of North America Rearview head up display

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5999477A (ja) * 1982-11-29 1984-06-08 日立電子株式会社 模擬視界発生装置における表示物の選択方式
JPH01114990A (ja) * 1987-10-28 1989-05-08 Daikin Ind Ltd テクスチャマッピング装置
JPH0691054A (ja) * 1992-07-31 1994-04-05 Sega Enterp Ltd 電子遊戯機器
WO1994028989A1 (fr) * 1993-06-16 1994-12-22 Namco Ltd. Appareil de jeu en trois dimensions
JPH07116342A (ja) * 1993-10-27 1995-05-09 Sega Enterp Ltd ドライブゲーム装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0282504B1 (en) * 1986-09-11 1992-10-07 Hughes Aircraft Company Digital simulation system for generating realistic scenes
US5367615A (en) * 1989-07-10 1994-11-22 General Electric Company Spatial augmentation of vertices and continuous level of detail transition for smoothly varying terrain polygon density

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5999477A (ja) * 1982-11-29 1984-06-08 日立電子株式会社 模擬視界発生装置における表示物の選択方式
JPH01114990A (ja) * 1987-10-28 1989-05-08 Daikin Ind Ltd テクスチャマッピング装置
JPH0691054A (ja) * 1992-07-31 1994-04-05 Sega Enterp Ltd 電子遊戯機器
WO1994028989A1 (fr) * 1993-06-16 1994-12-22 Namco Ltd. Appareil de jeu en trois dimensions
JPH07116342A (ja) * 1993-10-27 1995-05-09 Sega Enterp Ltd ドライブゲーム装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000061144A (ja) * 1998-08-25 2000-02-29 Namco Ltd 画像生成装置、ゲーム装置及び情報記憶媒体

Also Published As

Publication number Publication date
GB2295757B (en) 1998-04-08
US5966132A (en) 1999-10-12
GB9603483D0 (en) 1996-04-17
JP3056256B2 (ja) 2000-06-26
GB2295757A (en) 1996-06-05

Similar Documents

Publication Publication Date Title
JP3056256B2 (ja) 3次元シミュレータ装置及び画像合成方法
US5616079A (en) Three-dimensional games machine
JP2807608B2 (ja) ソーティング処理装置、これを用いた画像合成装置及びソーティング処理方法
US7044855B2 (en) Game device
US5764232A (en) Three-dimensional simulator apparatus and image synthesis method
JP2846252B2 (ja) 3次元シミュレータ装置及び画像合成方法
JP3638637B2 (ja) ポリゴンデータ変換装置及び3次元シミュレータ装置
US6128018A (en) Simulation apparatus and information storage medium
JP3420870B2 (ja) 画像合成方法、画像合成装置及びゲーム装置
JP3748451B1 (ja) プログラム、情報記憶媒体、及び画像生成システム
JP3215306B2 (ja) 画像合成方法及び装置
JP3364456B2 (ja) 3次元シミュレータ装置及び画像合成方法
JP2009129167A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP4806578B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP4187192B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP4913399B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP2990190B2 (ja) 3次元シミュレータ装置及び画像合成方法
JP3254091B2 (ja) 3次元シミュレータ装置及び画像合成方法
JP4782631B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JPH11134515A (ja) ゲーム装置及びゲーム画面合成方法
JPH06238063A (ja) ゲーム用カートリッジ及びこれを用いたゲーム装置
JP2912454B2 (ja) 3次元シミュレータ装置及び画像合成方法
JP2006252292A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2002273029A (ja) ゲーム情報、情報記憶媒体、および、ゲーム装置
JPH11134514A (ja) 3次元シミュレータ装置及び画像合成方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): GB JP US

WWE Wipo information: entry into national phase

Ref document number: 9603483.0

Country of ref document: GB

WWE Wipo information: entry into national phase

Ref document number: 08596236

Country of ref document: US