DE69636666T2 - Mit einer Bildanzeige synchronisierter Tonerzeuger - Google Patents

Mit einer Bildanzeige synchronisierter Tonerzeuger Download PDF

Info

Publication number
DE69636666T2
DE69636666T2 DE69636666T DE69636666T DE69636666T2 DE 69636666 T2 DE69636666 T2 DE 69636666T2 DE 69636666 T DE69636666 T DE 69636666T DE 69636666 T DE69636666 T DE 69636666T DE 69636666 T2 DE69636666 T2 DE 69636666T2
Authority
DE
Germany
Prior art keywords
source data
noise
noise source
storage means
temporary storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69636666T
Other languages
English (en)
Other versions
DE69636666D1 (de
DE69636666T8 (de
Inventor
Ltd. Hideaki c/o Nintendo Co. Kyoto-shi Shimizu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Publication of DE69636666T2 publication Critical patent/DE69636666T2/de
Application granted granted Critical
Publication of DE69636666T8 publication Critical patent/DE69636666T8/de
Active legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/95Storage media specially adapted for storing game information, e.g. video game cartridges
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/206Game information storage, e.g. cartridges, CD ROM's, DVD's, smart cards
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6676Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft allgemein einen Geräuschgeber oder einen Tonerzeuger, der mit einer Bildanzeige synchronisiert ist, und im besonderen einen Geräuschgeber zur Erzeugung von Geräuschen, wie beispielsweise einen Geräuscheffekt oder Musik mit dreidimensionaler Ausbreitung entsprechend der Richtung, des Abstandes und ähnlichem zwischen zwei Objekten, die von einem Bildverarbeitungsgerät dargestellt werden, beispielsweise einen Personal Computer oder einem Videospielgerät.
  • Hintergrund der Erfindung
  • Eine bekannte Technik zur Erzeugung von Stereogeräuschen ist in der japanischen Patentveröffentlichung No. 9397/1985 beschrieben (Dokument 1). Dokument 1 betrifft die Ausgabe eines Audiosignals als unverändertes Analogsignal und die Ausgabe des Audiosignals als verzögertes Analogsignal, um Stereogeräusche zu erzeugen.
  • Die Lehre von Dokument 1 kann jedoch nicht auf eine digitale Schallquelle angewandt werden, da das analoge Signal verzögert ist. Außerdem wird in Dokument 1 der Bewegungszustand eines Objekts oder einer Figur nicht berücksichtigt, die auf dem Bildschirm einer Kathodenstrahlröhre oder ähnlichem angezeigt wird, so dass keine Geräusche erzeugt werden können, die mit der Bewegung des Objekts synchronisiert sind.
  • In der japanischen offengelegten Patentanmeldung No. 155879/1987 (Dokument 2) wird ein bekannter Geräuschgeber zur Erzeugung zweidimensionale Geräusche beschrieben, die in Beziehung zu einer Bildanzeige stehen. Dokument 2 betrifft die Steuerung der Lautstärke von linken und rechten Lautsprechern, wenn ein Flugzeug als bewegtes Objekt eine zweidimensionale Schallquelle darstellen soll, indem die Lautstärke des einen Lautsprechers stetig verringert wird, von dem sich das Flugzeug weiter entfernt und die Lautstärke desjenigen Lautsprechers stetig zunimmt, auf den sich das Flugzeug zu bewegt.
  • Nach Dokument 2 wird die Lautstärke jedoch nur stetig mit der Bewegung des Objekts erniedrigt oder erhöht. Deshalb ergeben sich keine dreidimensionalen Geräuscheffekte, selbst wenn die Geräusche als Stereogeräusche gehört werden. Außerdem ist ein nach Dokument 2 erhaltener Geräuscheffekt nicht als Geräuscheffekt für eine dreidimensionale Bildanzeige geeignet. Der Grund dafür liegt darin, dass die Geräuscheffekte entstehen, wenn die Geräusche synchron mit der Bewegung eines bewegten Objekts erzeugt werden, das sich in zweidimensionaler Weise bewegt, beispielsweise ein Flugzeug oder ein Automobil, während dreidimensionale Geräuscheffekte nicht erhalten werden können, wenn ein dreidimensionales Bild dargestellt ist, so dass Bildanzeige und Geräuscheffekte nicht miteinander übereinstimmenden und daher beim Betrachter einen störenden Eindruck erzeugen. Wird außerdem Dokument 2 bei einem Benutzer mit Kopfhörer angewandt, so werden die linken und rechten Schallsignale gleichzeitig an das linke und rechte Ohr des Benutzers gegeben und unterscheiden sich nur durch ihre Lautstärke, so dass keine dreidimensionalen Geräuscheffekte erhalten werden, bei denen eine Verzögerung zwischen den rechten und linken Schallsignalen erforderlich ist. Außerdem ermüdet der Benutzer leicht bei großen Unterschieden in der Lautstärke zwischen rechten und linken Schallsignalen, da dann die Ohren des Benutzers belastet werden. Es wurde experimentell festgestellt, dass bei Benutzung von Kopfhörern über eine lange Zeit Kopfschmerzen und Ähnliches auftreten.
  • Werden die Lautstärken des rechten und linken Lautsprechers entsprechend Dokument 2 gesteuert, so hört der Benutzer die von den Lautsprechern erzeugten Geräusche sich in jeder Richtung ausbreiten; dadurch entsteht eine geringe Zeitverzögerung zwischen dem Schall, der vom rechten bzw. linken Lautsprecher erzeugt wird und in das linke bzw. rechte Ohr des Benutzers gelangt und dem Schall des anderen Lautsprechers, der an das rechte bzw. linke Ohr des Benutzers gelangt, so dass ähnliche Geräuscheffekte erzeugt werden, wie wenn eine der Schallwellen verzögert wird, ohne dass dabei schon dreidimensionale Geräuscheffekte auftreten.
  • EP 0 616 312 A2 beschreibt ein Verfahren und ein System zur Erzeugung von Geräuschen. Das Verfahren erlaubt es, Geräusche zu reproduzieren, die von Objekten in einer Benutzer-interaktiven, Computer erzeugten grafischen virtuellen Welt ausgehen, oder andere Geräusche in einer virtuellen Welt, wobei flexible und automatisch einsetzbare Betriebsmittel eines Schallsystems in der virtuellen Welt eingesetzt werden. Die Betriebsmittel des Schallsystems werden entsprechend Prioritätswerten zugewiesen, die den Geräuschen, den Geräusch erzeugenden Objekten oder Anforderungen für die Zuordnung eines Schallkanals zugeordnet sind.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Eine Aufgabe der vorliegenden Erfindung besteht daher darin, einen Geräuschgeber anzugeben, der dreidimensionale Geräusche erzeugen kann, die geändert werden, wenn eine Kamera bewegt wird und ein von der Kamera aufgenommenes dreidimensionales Bild wiedergegeben wird.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist es, einen Geräuschgeber anzugeben, der die Ermüdung eines Benutzers herabsetzt, wenn dieser die Geräusche über einen Kopfhörer hört.
  • Zur Lösung dieser Aufgaben stellt die vorliegende Erfindung einen Geräuschgeber nach Anspruch 1 zur Verfügung. Bevorzugte Ausführungsformen sind in den abhängigen Ansprüchen beschrieben.
  • Die vorliegende Erfindung betrifft einen Geräuschgeber, der in einem Bildanzeigegerät zur Darstellung eines dreidimensionalen Bildes Geräusche erzeugt, deren räumliche Ausdehnung dem dreidimensionalen Bild entspricht und der enthält: erste Geräuscherzeugungsmittel zur Erzeugung eines ersten Geräusches, zweite Geräuscherzeugungsmittel zur Erzeugung eines zweiten Geräusches, ein Geräuschquelldatenspeichermittel zur digitalen Speicherung von Geräuschquelldaten, ein temporäres Speichermittel zum zeitweiligen Speichern der Geräuschquelldaten, die von den Geräuschquelldatenspeichermitteln ausgelesen wurden, ein Verzögerungszeitberechnungsmittel zum Berechnen einer Verzögerungszeit auf der Basis einer Richtung auf ein erstes angezeigtes Objekt, das aus der Position eines vorbestimmten Betrachtungspunktes betrachtet wird, wenn das Bildanzeigegerät das erste Objekt anzeigt, das Geräusche erzeugen soll, ein Audioverarbeitungsmittel, das in jeder Zeiteinheit Geräuschquelldaten, die dem ersten angezeigten Objekt entsprechen, aus dem Geräuschquelldatenspeichermittel ausliest, wobei die Geräuschquelldaten in dem temporären Speichermittel gespeichert werden, die Geräuschquelldaten als erste Geräuschquelldaten ausgelesen werden, und die in dem temporären Speichermittel gespeicherten Geräuschquelldaten als zweite Geräuschquelldaten zu einem Zeitpunkt ausgelesen werden, der durch die vom Verzögerungszeitberechnungsmittel berechneten Verzögerungszeit von der Zeit unterschieden ist, zu der die ersten Geräuschquelldaten ausgelesen werden, ein erstes Digital-Analog-Wandlungsmittel zum Wandeln der ersten Geräuschquelldaten, die aus dem ersten temporären Speichermittel ausgelesen wurden, in ein analoges Audiosignal und Einspeisen des analogen Audiosignals in die ersten Geräuscherzeugungsmittel und ein zweites Digital-Analog-Wandlungsmittel zum Wandeln der zweiten Geräuschquelldaten, die aus dem temporären Speichermittel ausgelesen wurden, in ein analoges Audiosignal und Einspeisen des analogen Audiosignals in die zweiten Geräuscherzeugungsmittel.
  • Wie vorstehend beschrieben, wird gemäß der vorliegenden Erfindung bei der Anzeige eines ersten Anzeigeobjekts in einem dreidimensionalen Bild die Verzögerungszeit zwischen den ersten Geräuschquelldaten und den zweiten Geräuschquelldaten anhand der Richtungsänderung des ersten Anzeigeobjekts geändert, das aus der Position eines vorbestimmten Betrachtungspunktes betrachtet wird, wodurch mit den ersten und zweiten Geräuscherzeugungsmitteln Geräusche erzeugt werden können, deren räumliche Ausdehnung der Änderung des dreidimensionalen Bildes entspricht. Da bei der vorliegenden Erfindung Bildanzeige und Geräuscheffekte miteinander zusammenfallen, empfindet der Benutzer Bild und Geräuscheffekte realitätsnäher und sein Interesse nimmt zu. Außerdem ermüdet der Benutzer weniger, wenn er die im Geräuschgenerator erzeugten Geräusche mit einem Kopfhörer anhört.
  • Die vorstehenden und weitere Aufgaben, Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden aus der folgenden detaillierten Beschreibung im Zusammenhang mit den beigefügten Zeichnungen deutlich.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm, in dem in der Aufbau eines Geräuschgebers nach einem ersten Ausführungsbeispiel der Erfindung dargestellt ist;
  • 2 ist ein Schaubild zur Erläuterung des Prinzips für den Fall, dass die Verzögerungswerte für das linke und rechte Audiosignal anhand der Positionsbeziehung zwischen einem Geräusch erzeugenden Objekt und einer Kamera variiert werden;
  • 3 zeigt eine Charakteristik der Beziehung zwischen der Lautstärke und der Richtung für den Fall, dass die Lautstärke unter der Voraussetzung gesteuert wird, dass keine Verzögerung vorliegt;
  • 4 zeigt eine Charakteristik der Beziehung zwischen der Richtung und der Lautstärke für den Fall, dass eine Verzögerung vorliegt und dass der Verzögerungswert variabel gesteuert wird;
  • 5 zeigt eine Charakteristik der Beziehung zwischen Entfernung und Lautstärke für den Fall, dass die Lautstärke unter der Bedingung gesteuert wird, dass eine Verzögerung vorliegt;
  • 6 zeigt eine Charakteristik für den Fall, dass der Verzögerungswert in Bezug auf die Positionsbeziehung zwischen einem Geräusch erzeugenden Objekt und einer Kamera (Heldenfigur) gesteuert wird
  • 7 zeigt ein Blockdiagramm mit dem Aufbau eines Geräuschgebers nach einem zweiten Ausführungsbeispiel der vorliegenden Erfindung;
  • 8 zeigt ein Diagramm zur Veranschaulichung einer Speicherbelegung eines in 7 dargestellten W-RAM;
  • 9 zeigt ein Diagramm eines Beispiels einer Speicherbelegung für den Geräuschspeicherbereich, der einem in 1 dargestellten Pufferspeicher entspricht;
  • 10 zeigt ein Diagramm eines weiteren Beispiels einer Speicherbelegung für den Geräuschspeicherbereich, der einem in 1 dargestellten Pufferspeicher entspricht;
  • 11 zeigt ein Flussdiagramm mit der schematischen Betriebsweise eines Spiels;
  • 12 zeigt ein Flussdiagramm mit Einzelheiten einer Subroutine zur in 1 gezeigten Verarbeitung des Audioausgangs;
  • 13 zeigt ein Zeitdiagramm für die Ausgabe von Audiodaten für den Fall, dass keine Verzögerung vorhanden ist;
  • 14 zeigt ein Zeitdiagramm für die Ausgabe von Audiodaten für den Fall, dass eine Verzögerung vorhanden ist und dass der vorhergehende und der aktuelle Verzögerungswert gleich groß sind;
  • 15 zeigt ein Zeitdiagramm für die Ausgabe von Audiodaten für den Fall, dass eine Verzögerung vorliegt und der vorherige und der aktuelle Verzögerungswert ungleich sind.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • 1 zeigt ein Blockdiagramm mit dem Aufbau eines Geräuschgebers nach einem ersten Ausführungsbeispiel der vorliegenden Erfindung. In 1 dient ein Bild/Audioprozessor 10 (im Folgenden als „Prozessor" bezeichnet) beispielsweise als Videospielkonsole zur Erzeugung von Bildern und Geräuschen, wie Musik und Geräuscheffekte für ein Spiel, und enthält eine Bildverarbeitungseinheit 11 und eine Audioverarbeitungseinheit 12. Ein Bildspeicher 13 ist mit der Bildverarbeitungseinheit 11 über einen Adress- und einen Datenbus verbunden. Außerdem sind ein externer Speicher 20 und eine Bedieneinheit 30 lösbar mit der Bildverarbeitungseinheit 11 verbunden.
  • Die Bildverarbeitungseinheit 11 führt Operationen zur Bildbearbeitung auf der Basis von Daten durch, die Bedienzustände darstellen und von der Bedieneinheit 30 eingegeben wurden und von Bilddaten und Programmdaten, die in einem Speicher 21 für Bilddaten und Programmdaten im externen Speicher 20 enthalten sind, und speist die von der Bedienung erzeugte Bildanzeige an eine Bildsignalerzeugungsschaltung 14. Im Einzelnen erzeugt die Bildverarbeitungseinheit 11 Bildanzeigedaten zur Anzeige von einem oder mehreren Objekten, die entsprechend dem Programm Geräusche erzeugen, beispielsweise Musik und/oder Geräuscheffekte (beispielsweise ein Wasserfall, ein Fluss, ein Tier, ein Automobil, ein Flugzeug oder ähnliches) und Objekte, die keine Geräusche erzeugen (beispielsweise ein Gebäude, eine Fabrik, eine Straße, eine Wolke, eine Ansicht oder ähnliches), und zwar auf dreidimensionale Art mit der Bewegung der Sichtlinie einer Kamera. Die Kamera ist eine virtuelle Kamera, die nicht auf dem Bildschirm eines Anzeigegeräts dargestellt wird. Ein auf die virtuelle Kamera projiziertes Bild wird auf dem Schirm des Anzeigegerätes dargestellt. Weiterhin wird sie in Sichtlinie der Kamera bewegt, entsprechend dem Spielfortschritt, der Handlung eines Spielers und ähnlichem. Wenn eine Heldenfigur (beispielsweise ein menschliches Wesen oder ein Tier) auf dem Bildschirm dargestellt wird und sich entsprechend der Bedie nung durch den Spieler in der Bewegungsrichtung oder der Handlung verändert (Bewegung der Hände und Beine), so kann sich die Sichtlinie der Kamera in manchen Fällen synchron mit der Bewegung der Sichtlinie der Heldenfigur bewegen.
  • Die Bildsignalerzeugungsschaltung 14 erzeugt ein Bildsignal mit verschiedenen Synchronisiersignalen, die erforderlich sind, um ein Bild auf einer Kathodenstrahlröhre CRT oder einem herkömmlichen Fernsehempfänger 40 (im Folgenden als Fernseher bezeichnet) anzuzeigen; der Fernseher ist nur ein Beispiel für ein Anzeigegerät für Bildanzeigedaten, die von der Bildverarbeitungseinheit 11 geliefert werden. Die Bilderzeugungsschaltung 14 speist das Bildsignal an den Fernseher 40, um ein Bild auf dem Anzeigeschirm 41 (Anzeigebereich) darzustellen.
  • Außerdem speist die Bildverarbeitungseinheit 11 die Audioverarbeitungseinheit 12 mit Koordinationsdaten (im Folgenden als erste Koordinationsdaten bezeichnet) eines Objekts, das das Geräusche erzeugt (im Folgenden als Geräusch erzeugendes Objekt bezeichnet), Koordinationsdaten (im Folgenden als zweite Koordinationsdaten bezeichnet) der virtuellen Kamera (oder der Heldenfigur) sowie Daten zur Bezeichnung der Geräuschart, damit der Geräuscheffekt geändert werden kann, beispielsweise für Wasser in einem Wasserfall oder einem Fluss, das Geräusch in einem fahrenden Automobil oder der Schrei eines Tieres, wenn die Sichtlinie der virtuellen Kamera bewegt wird, damit dreidimensionale Geräuscheffekte synchron mit der dreidimensionalen Bilddarstellung erhalten werden können. Die an die Audioverarbeitungseinheit 12 gelieferten Koordinationsdaten enthalten auch Daten für die Z-Koordinate, zur Angabe der Tiefenrichtung zusätzlich zu den Daten für die X-Koordinate für die Angabe der transversalen Richtung auf dem Bildschirm und der Y-Koordinate für die Angabe der longitudinalen Richtung auf den Bildschirm.
  • Ein Speicher 22 für Geräuschquelldaten im externen Speicher 20 ist lösbar mit der Audioverarbeitungseinheit 12 verbunden und ein Pufferspeicher 15 für die Audioverarbeitung (im Folgenden als Pufferspeicher bezeichnet) zur temporären Speicherung von Geräuschquelldaten ist mit der Audioverarbeitungseinheit über einen Datenbus und einen Adressbus verbunden.
  • Der Speicher 22 für Geräuschquelldaten speichert eine große Menge von Geräuschquelldaten, die für ein Spiel benötigt werden, das als Programme im externen Speicher 20 in Form von PCM oder AD-PCM Daten gespeichert ist.
  • Der Pufferspeicher 15 enthält einen Pufferbereich 15a und einen Verzögerungs-Pufferbereich 15b (vergleiche die Ausführungsform von 9, die später genau beschrieben wird). Der Pufferbereich 15a speichert temporär Audiodaten, um ein erstes Audiosignal zu erzeugen, das in einer vorgegebenen Zeiteinheit nicht verzögert ist und wird im Folgenden als nicht verzögerter Pufferbereich bezeichnet. Der Verzögerungs-Pufferbereich 15b hat eine Speicherkapazität entsprechend der maximalen Verzögerungszeit, um ein zweites Audiosignal zu erzeugen, das gegenüber dem ersten Audiosignal um eine Zeit verzögert ist, die der Verzögerungszeit entspricht, die anhand von Richtung und Abstand zwischen den Koordinaten des Geräusch erzeugenden Objekts und den Koordinaten der virtuellen Kamera (oder der Heldenfigur) bestimmt wird.
  • Ist in der vorliegenden Ausführungsform die maximale Verzögerungszeit nicht geringer als 1/5 der Zeiteinheit, so ergibt sich ein unnatürlicher Eindruck, wenn linke und rechte Geräusche gehört werden; die Speicherkapazität des Verzögerungs-Pufferbereichs 15b wird daher so gewählt, dass sie 1/5 derjenigen des nicht verzögerten Pufferbereichs 15a beträgt. Beispielsweise hat der nicht verzögerte Pufferbereich 15a eine Speicherkapazität von 320 Bytes, entsprechend der Zeiteinheit und der Verzögerungs-Pufferbereich 15b eine Kapazität von 64 Bytes entsprechend der maximalen Verzögerungszeit. Die Zeiteinheit für die Verarbeitung wird bestimmt durch das Verhältnis zwischen der Abtastfrequenz im Fall von Audiosignalen, die zur Erzeugung von Audiodaten abgetastet werden (beispielsweise 32 kHz) und der Zeit, die zur jeweiligen Verarbeitung des Audiosignals erforderlich ist (d.h. die Zeit, die der Verarbeitungseinheit entspricht); im vorliegenden Ausführungsbeispiel wurde sie auf 1/200 bis 1/240 Sekunden gesetzt. Die Verzögerungszeit des zweiten Audiosignals bezüglich des erstens Audiosignals wird variabel gesteuert und zwar abhängig von der Richtung des Geräusche erzeugenden Objekts aus Blickrichtung der Kamera (oder der Heldenfigur) oder von den Richtungsänderungen des Geräusch erzeugenden Objekts aus der Blickrichtung in der Kamera für den Fall, dass die Kamera (oder die Heldenfigur) vor und nach der Bewegung bewegt wird (oder den Winkeln basierend auf den Richtungen).
  • Wenn die Kapazität des Pufferspeichers 15 groß ist, kann eine Startadresse für das Einschreiben der zweiten Geräuschquelldaten abhängig von der Verzögerungszeit variabel im Bereich von 0 bis 64 Bytes gewählt werden, wobei ein Verzögerungs-Pufferbereich 15b' mit einer Speicherkapazität verwendet wird, die der Summe der Speicherkapazität des nicht verzögerten Pufferbereichs 15a und der Speicherkapazität des Verzögerungs-Pufferbereichs 15b entspricht, um den Verzögerungs-Pufferbereich 15b zu ersetzen (siehe das Ausführungsbeispiel in 10 mit der späteren genaueren Darstellung).
  • Die Audioverarbeitungseinheit 12 führt die Bearbeitung auf der Basis von vorbestimmten Programmen entsprechend den ersten und zweiten Koordinationsdaten aus, findet eine Richtung (oder einen Winkel) zum Geräusch erzeugenden Objekt aus der Blickrichtung der Kamera (oder der Heldenfigur) und bestimmt auf der Basis der Richtung den Verzögerungswert (oder Verzögerungszeit), um eine Charakteristik wie in der später zu 6 gezeigten zu erreichen.
  • Außerdem bestimmt die Audioverarbeitungseinheit 12 den Abstand zwischen Geräusch erzeugendem Objekt und der Kamera (oder der Heldenfigur) anhand der ersten und zweiten Koordinationsdaten und bestimmt die Lautstärke auf der Basis der Entfernungsdaten. Die Audioverarbeitungseinheit 12 liest Audiodaten entsprechend der Verarbeitungseinheit (320 Bytes) aus dem Geräuschquelldatenspeicher 22 in einer vorbestimmten Periode aus und schreibt die Audiodaten in den nicht verzögerten Pufferbereich 15a, findet einen Änderungsbetrag (einen Winkel) zwischen den Richtungen des Geräusch erzeugenden Objekts aus Blickrichtung der Kamera (oder der Heldenfigur) und der Koordinationsdaten für die Positionen der Kamera (oder der Heldenfigur) bzw. der Position des Geräusch erzeugenden Objekts vor und nach der Bearbeitungszeit und findet durch die Verarbeitung die Verzögerungszeit, die dem Änderungsbetrag zwischen den Richtungen entspricht. Die Verzögerungszeit lässt sich auch ohne Verarbeitung bestimmen, indem vorher Daten in eine Tabelle gesetzt werden, die Verzögerungszeiten für jeden Winkel anhand einer Richtung darstellen und die entsprechenden Daten für die Verzögerungszeiten ausgelesen werden. Ein Schreibbereich des Verzögerungs-Pufferspeichers 15b wird abhängig der so bestimmten Verzögerungszeit festgelegt.
  • Die Audioverarbeitungseinheit 12 liest die in dem nicht verzögerten Pufferbereich 15a gespeicherten Geräuschquelldaten und gibt sie als erste Geräuschquelldaten aus, schreibt die ersten Geräuschquelldaten in Adressen des Verzögerungs-Pufferbereichs 15b entsprechend der Verzögerungszeit und liest die Geräuschquelldaten aus der endgültigen Adresse des Verzögerungs-Pufferbereichs 15b und gibt sie als zweite Geräuschquelldaten aus, die um die gewünschte Verzögerung gegenüber den ersten Geräuschquelldaten verzögert sind.
  • Das erste und das zweite Audiosignal entsprechen nicht in festgelegter Weise den linken und echten Lautsprechern (oder den linken und rechten Schallerzeugern in einem Kopfhörer). Das erste Audiosignal entspricht einem Kanal von Audiosignalen, die nicht verzögert sind, und das zweite Audiosignal entspricht einem Kanal von Audiosignalen, die verzögert sind. Die Audioverarbeitungseinheit 12 speist die ersten Audiodaten in einen Digital-Analog-Wandler für die linke Seite 16a und die zweiten Audiodaten in einen Digital-Analog-Wandler für die rechte Seite 16b, wenn sie feststellt, dass das Geräusch erzeugende Objekt auf der linken Seite vor der Kamera steht (oder vor der Heldenfigur). Umgekehrt speist die Audioverarbeitungseinheit 12 die ersten Audiodaten an einen Digital-Analog-Wandler für die rechte Seite und das zweite Audiosignal in den Digital-Analog-Wandler für die linke Seite 16a, wenn sie feststellt, dass das Geräusch erzeugende Objekt auf der rechten Seite vor der Kamera steht (oder vor der Heldenfigur). Im Einzelnen schaltet die Audioverarbeitungseinheit 12 eine Kombination der Digital-Analog-Wandler 16a und 16b, um die ersten und zweiten Audiodaten einzuspeisen und zwar abhängig davon, ob das Geräusch erzeugende Objekt aus Sicht der Kamera (oder der Heldenfigur) auf der rechten Seite oder auf der linken Seite steht.
  • Die Digital-Analog-Wandler 16a, 16b unterziehen die eingegebenen Audiodaten einer digital-analogen Umwandlung, um Audiosignale zu erzeugen und speisen diese in entsprechende Filter 17a. und 17b. Die Filter 17a und 17 unterziehen das linke, bzw. das rechte Audiosignal einer Interpolation, um die Wellenform der Audiosignale glätten und speisen die Wellenform der Audiosignale an linke und rechte Lautsprecher 42L und 42R, die zu einem Fernseher 40 gehören und/oder liefern die Audiosignale an einen Kopfhörer 44 über eine Anschlussbuchse 43, um auf diese Weise Geräusche zu erzeugen.
  • Die Audioverarbeitungseinheit 12 enthält weiter einen Steuerteil 12a für die Lautstärke. Die Lautstärkesteuerung 12a bestimmt den Abstand zwischen dem Geräusch erzeugenden Objekt und der Kamera (oder der Heldenfigur) und steuert die Lautstärke entsprechend dem festgestellten Abstand. Beispielsweise steuert die Lautstärkesteuerung 12 die Lautstärke so, dass diese zunimmt, wenn die Kamera (oder die Heldenfigur) sich dem Geräusch erzeugenden Objekt nähert und damit den Abstand dazwischen verringert oder abnimmt, wenn sich die Kamera (oder die Heldenfigur) weiter von dem Geräusch erzeugenden Objekt entfernt und damit die dazwischen liegende Entfernung zunimmt. Wenn insbesondere die Lautstärke so gesteuert wird, dass sie umgekehrt proportional zum Quadrat der Entfernung zwischen der Kamera (oder der Heldenfigur) und dem Geräusch erzeugenden Objekt ist, wird es möglich, einen Geräuscheffekt entsprechend der Änderung in einer dreidimensionalen Bilddarstellung mit der Bewegung der Kamera (oder der Heldenfigur) zu erhalten.
  • Die oben beschriebenen Operationen werden für jede Zeiteinheit wiederholt, so dass ein Geräuscheffekt für ein Spiel oder für BGM Musik (Spielemusik) synchron mit der Änderung eines Bildes erzeugt wird, um so die Spielatmosphäre zu verbessern. Die Audioverarbeitungseinheit bestimmt einen Unterschied zwischen der Zeit, zu der die ersten Audiodaten ausgegeben werden, und der Zeit zur Ausgabe der zweiten Audiodaten (der Wert der Verzögerung zwischen einer der Audiodaten von den anderen Audiodaten) auf der Grundlage der Richtungen oder eines Winkels zum Geräusch erzeugenden Objekt aus dem Blickwinkel der Kamera (oder der Heldenfigur) und steuert die Lautstärke auf der Grundlage des Abstandes zwischen der Position in der Kamera (oder der Heldenfigur) und der Position des Geräusch erzeugenden Objekts. Als Ergebnis werden die Geräusche oder Töne aus den linken und rechten Lautsprechern 42L und 42R oder dem Kopfhörer 44 auch auf dreidimensionale Weise synchron mit der Änderung des dreidimensionalen Bildes geändert, entsprechend der Bewegung der Blickrichtung zum Geräusch erzeugenden Objekt aus Sicht der Kamera (oder der Heldenfigur).
  • Wenn der Verzögerungswert zwischen rechten und linken Schallwellen so gesteuert werden soll, dass realitätsechte dreidimensionale Geräuscheffekte erzeugt werden, darf die Lautstärke nicht über den maximalen Bereich zwischen geringster und größter Lautstärke geändert werden und muss in einem Bereich erfolgen, der den maximalen Bereich beschränkt oder unterdrückt. Befindet sich weiterhin zwischen der Kamera (oder der Heldenfigur) und dem Geräusch erzeugenden Objekt bei der Bewegung der Kamera (oder der Heldenfigur) ein Schall isolierendes Objekt (beispielsweise ein Gebäude, wie ein Haus oder eine Mauer, oder ein großes sich bewegendes Objekt, wie ein Schiff oder ein Flugzeug) oder taucht ein derartiges Schall isolierendes Objekt auf so lassen sich Geräuscheffekte erzielen, die noch realitätsechter sind, wenn die Lautstärkesteuerung 12a die Lautstärke so steuert, dass ihr Pegel deutlich geringer wird.
  • Anhand des Blockdiagramms von 1 werden nun im Einzelnen die Beziehun gen zwischen der Verzögerungszeit und der Änderung der Lautstärke beschrieben, und zwar abhängig davon, ob Verzögerungen zwischen dem ersten und zweiten Audiosignal vorliegen oder nicht. In diesem Fall führen die Bildverarbeitungseinheit 11 und die Audioverarbeitungseinheit 12 dazu Programme aus, die in dem Bilddaten/Progammdatenspeicher 21 gespeichert sind. Zu diesem Zweck wird angenommen, dass Programme zur Durchführung der Steuerung entsprechend den Charakteristiken in den 3 bis 6 zuvor im Speicher 21 gespeichert wurden. Außerdem werden die folgenden verschiedenen Betriebsmodi einzeln oder in verschiedenen Kombinationen auf der Basis der Programme durchgeführt: ein Modus, die Lautstärke unter der Bedingung zu steuern, dass keine Verzögerung vorhanden ist (null Verzögerung) (siehe 3), ein Modus, in dem die Lautstärke unter der Bedingung gesteuert wird, dass eine Verzögerung vorliegt (siehe 4), ein Modus, in dem die Lautstärke entsprechend dem Abstand zwischen dem Geräusch erzeugenden Objekt für den Fall gesteuert wird, dass eine Verzögerung vorliegt (siehe 5) und ein Betriebsmodus, in dem die Verzögerung durch die relative Lage (die Richtung) zwischen dem Geräusch erzeugenden Objekt und der Kamera (oder der Heldenfigur) (siehe 6) bestimmt wird.
  • Ein spezifisches Verfahren, mit dem die Lautstärke und/oder der Verzögerungswert entsprechend den Charakteristiken der 3 bis 6 gesteuert werden kann, besteht in den Schritten: Ändern der Beziehung zwischen Abstand/Richtung und Lautstärke in einer Gleichung so, dass sich die Charakteristiken der 3 bis 6 ergeben und Abspeichern dieser Gleichung, Verarbeiten des Abstandes/der Richtung und/oder der Lautstärke mit Hilfe der gespeicherten Gleichung für jede Steuerung oder Setzen eines Lautstärkewertes der Charakteristiken in eine Tabelle für jede Einheitsdistanz links und rechts, wobei die Position der Kamera (oder der Heldenfigur) als Mittelpunkt dient, und Auslesen des Lautstärkewerts, wobei die Entfernungsdaten als Adresse aufgefasst werden.
  • Unter Bezug auf 2 und 3 wird nun der Modus beschrieben, in dem die Lautstärke unter der Bedingung gesteuert wird, dass keine Verzögerung vorhanden ist.
  • Das ist beispielsweise der Fall, wenn der Abstand zwischen dem Geräusch erzeugenden Objekt und der Kamera (oder der Heldenfigur) in der Spielszene konstant ist, so dass vorzugsweise keine gegenseitigen Verzögerungen zwischen linken und rechten Audiosignale vorgesehen werden und die Lautstärke des linken Audiosignals auf den maximalen Änderungsbetrag gesetzt wird und die Lautstärke des rechten Audiosignals auf null, wenn sich das Geräusch erzeugende Objekt auf der linken Seite befindet (bei einem Winkel von 0) aus Blickrichtung der Kamera (oder der Heldenfigur) (siehe 3). Wenn das Geräusch erzeugende Objekt so nach rechts bewegt wird, dass es entsprechend 2 einen Halbkreis mit einem vorbestimmten Abstand r um die Kamera beschreibt (oder die Heldenfigur), wird die Lautstärke des rechten Audiosignals stetig erhöht und die Lautstärke des linken Audiosignals stetig herabgesetzt, wie es in der Charakteristik von 3 dargestellt ist. Wenn das Geräusch erzeugende Objekt die Vorderseite der Kamera (oder der Heldenfigur) erreicht (eine Position bei einem Winkel von 90° von der linken Seite), werden die Lautstärken des linken und des rechten Audiosignals gleich gesetzt. Wenn weiter das Geräusch erzeugende Objekt nach rechts verschoben wird, um eine Position auf der rechten Seite der Kamera (oder der Heldenfigur) zu erreichen (eine Position bei einem Winkel von 180° von linken Seite), wird die Lautstärke des linken Audiosignals auf Null gesetzt und die Lautstärke des rechten Audiosignals auf den maximalen Änderungsbetrag.
  • Selbst in dem Fall, wenn das Geräusch erzeugende Objekt fest steht und die Richtung der Kamera (der Heldenfigur) geändert wird, können die Lautstärken des linken und des rechten Audiosignals in ähnlicher Weise gesteuert werden, wenn die relative Lage zwischen dem Geräusch erzeugenden Objekt und der Kamera (oder der Heldenfigur) dieselbe ist wie die in den 2 und 3 dargestellte Beziehung. Wenn das Geräusch erzeugende Objekt fest steht und die Richtung der Kamera (oder der Heldenfigur) geändert wird, gilt dasselbe wie im Fall der in den 4 bis 6 dargestellten Charakteristiken. Vorzugsweise wird die Zunahme und die Abnahme der Lautstärke durch Multiplexen der Änderung der in 3 dargestellten Charakteristiken mit einem Korrekturfaktor gesteuert, so dass die Laut stärken umgekehrt proportional zu einem Wert sind, der sich durch Multiplikation eines vorgegebenen Koeffizienten mit dem Abstand zwischen dem Geräusch erzeugenden Objekt und der Kamera (oder der Heldenfigur) ergibt.
  • Unter Bezug auf 2 und 4 wird der Betriebsmodus beschrieben, in welchem die Lautstärke unter der Bedingung gesteuert wird, dass eine Verzögerung vorhanden ist. In einer Spielszene mit Lautstärkesteuerung in Kombination mit einer dreidimensionalen Anzeige, d.h. eine Spielszene, in der die Lautstärke in Bezug auf die Verzögerungswerte zwischen den linken und rechten Audiosignalen gesteuert wird, wenn sich das Geräusch erzeugende Objekt auf der linken Seite aus Sichtrichtung der Kamera (der Heldenfigur) befindet, wird die Lautstärke des linken Audiosignals auf den maximalen Änderungswert gesetzt und die Lautstärke des rechten Audiosignals auf ungefähr die Hälfte des maximalen Änderungswertes (siehe 4). Der Grund, weshalb die minimale Lautstärke nicht auf null, sondern auf die Hälfte der maximalen Lautstärke gesetzt wird (oder den maximalen Änderungswert), wenn eine Verzögerung vorliegt, besteht darin, dass dreidimensionale Geräuscheffekte erhalten werden, selbst wenn die Lautstärken der rechten und der linken Audiosignale nicht maximal unterschiedlich gemacht werden, indem die linken und rechten Audiosignale verzögert werden. Die Lautstärke des rechten Audiosignals wird stetig erhöht und die Lautstärke des linken Audiosignals stetig herabgesetzt, entsprechend der Darstellung in 4, wenn das Geräusch erzeugende Objekt so nach rechts bewegt wird, dass es einen Halbkreis in einem vorbestimmten Abstand r um die Kamera (und die Heldenfigur) beschreibt, wie in 2 dargestellt. Wenn das Geräusch erzeugende Objekt die Vorderseite der Kamera (oder der Heldenfigur) erreicht, wird die Lautstärke des linken und des rechten Audiosignals gleich gemacht. Wird das Geräusch erzeugende Objekt weiterhin nach rechts bewegt, um eine Position auf der rechten Seite der Kamera (oder der Heldenfigur) zu erreichen, wird die Lautstärke des rechten Audiosignals auf den maximalen Änderungswert und die Lautstärke des linken Audiosignals auf die Hälfte des maximalen Änderungswerts gesetzt.
  • Unter Bezugnahme auf 2 und 5 wird nun die Beziehung zwischen dem Abstand und der Lautstärke in dem Betriebsmodus beschrieben, in dem die Lautstärke unter der Bedingung gesteuert wird, dass eine Verzögerung vorliegt, entsprechend der Darstellung in 4. Wenn sich das Geräusch erzeugende Objekt im Bereich eines Radius r von der Kamera (oder der Heldenfigur) befindet, wird die Lautstärke im Bereich zwischen dem maximalen Änderungsbetrag und dem minimalen Änderungsbetrag geändert, und zwar abhängig von der Richtung oder der Position des Geräusch erzeugenden Objekts aus der Blickrichtung der Kamera (oder der Heldenfigur). Der Grund dafür liegt darin, dass sich die Lautstärke mit der Änderung des Abstandes kaum ändert, wenn sich das Geräusch erzeugende Objekt innerhalb des Bereichs mit vorgegebenem kurzem Abstand r befindet. In 2 nehmen die Lautstärken des rechten und des linken Audiosignals Werte zwischen dem maximalen Änderungsbetrag und dem minimalen Änderungsbetrag an, wenn sich das Geräusch erzeugenden Objekt vor der Kamera (oder der Heldenfigur) befindet. Bewegt sich andererseits das Geräusch erzeugende Objekt in variabler Richtung weiter weg, so wird die Lautstärke so geändert, dass sie exponentiell abnimmt. Wenn sich das Geräusch erzeugende Objekt weiter von der Kamera (oder Heldenfigur) entfernt, aber nicht um mehr als einen vorbestimmten Abstand, wird die Lautstärke auf Null gesetzt.
  • Unter Bezugnahme auf 2 und 6 wird nun der Betriebsmodus beschrieben, in welchem die Verzögerungswerte in Abhängigkeit der gegenseitigen Lage zwischen dem Geräusch erzeugenden Objekt und der Kamera (oder Heldenfigur) gesteuert werden. Blickt die Kamera (oder die Heldenfigur) nach vorne und befindet sich das Geräusch erzeugende Objekt im Vordergrund, so ist es notwendig, dass keine Verzögerung zwischen den linken Audiosignal und dem rechten Audiosignal besteht. Wird die Verzögerung so gesteuert, dass sie sich ändert, wenn sich die Kamera (oder die Heldenfigur) nur wenig nach links oder rechts bewegt, so ergibt sich in Bezug auf das dargestellte Bild ein unangenehmer Eindruck. Daher wird entsprechend der Darstellung in 6 die Verzögerung so eingestellt, dass sie sich in den Bereich von vorbestimmten Abständen auf der linken und rechten Sei te von der Kamera (oder die Heldenfigur) nicht ändert. Befindet sich insbesondere das Geräusch erzeugende Objekt auf der linken Seite, gesehen von der Kamera (oder Heldenfigur), so wird die Verzögerung des linken Audiosignals auf Null gesetzt und die Verzögerung des rechten Audiosignals wird auf den maximalen Verzögerungswert gesetzt. Die Verzögerung für das rechte Audiosignal wird verringert, wenn sich das Geräusch erzeugende Objekt nach rechts bewegt und dabei einen Halbkreis mit einem vorbestimmten Abstand r um die Kamera (oder die Heldenfigur) beschreibt, wobei die Verzögerungswerte des linken und des rechten Audiosignals auf Null gesetzt werden: Im Bereich von vorbestimmten Abständen auf der linken und rechten Seite vom Mittelpunkt wird der Verzögerungswert des linken Audiosignals stetig erhöht, während der Verzögerungswert des rechten Audiosignals auf Null gesetzt wird, wenn sich das Geräusch erzeugende Objekt nach rechts auf einer Position bewegt, die vom Mittelpunkt einen vorbestimmten Abstand aufweist.
  • 7 zeigt ein Blockdiagramm mit dem Aufbau eines Geräuschgebers oder Tonerzeugers nach einer zweiten Ausführungsform der vorliegenden Erfindung. Der Geräuschgeber dieser Ausführungsform unterscheidet sich vom Geräuschgeber nach der ersten Ausführungsform (siehe 1) in folgenden Punkten: Zum ersten ist der Hauptteil des Prozessors 10 durch eine Videokonsole 50 ersetzt. Weiterhin besteht die Bildverarbeitungseinheit 11 aus einer Haupt CPU (M-CPU) 51 und zwei Risk CPUs (R-CPU) 52 und 53. Der Bildspeicher 13 und der Pufferspeicher 15 bestehen aus einem Arbeitsspeicher RAM (W-RAM) 55 mit einer großen Speicherkapazität. Die Audioverarbeitungseinheit 12 wird durch eine R-CPU 53 dargestellt, d.h. die R-CPU 53 wird sowohl für die Bild- als auch die Audioverarbeitung eingesetzt. Wie vorstehend beschrieben, besteht die Bildverarbeitungseinheit 11 aus drei CPUs (die M-CPU 51, die R-CPU 52 und die R-CPU 53). Der Grund, weshalb die Audioverarbeitungseinheit 12 durch eine R-CPU 53 dargestellt ist, liegt darin, dass die Audioverarbeitung in kürzeren Zeiten durchgeführt werden kann als die Bildverarbeitung. Der Grund, weshalb der Bildspeicher 13 und der Pufferspeicher 15 durch einen W-RAM 55 mit großer Kapazität (bei spielsweise 4 Megabyte) dargestellt werden, liegt darin, dass Speicherplatz leichter zugewiesen werden kann, so dass die Verteilung der für die Bildverarbeitung und die Audioverarbeitung verwendeten Zeitperioden flexibel und abhängig von dem Nutzungszweck eingestellt werden kann.
  • Zur Steuerung der Eingabe/Ausgabe einer Vielzahl von Bedieneinheiten 30 wird ein Controller 56 für diese Bedieneinheiten vorgesehen. Außerdem ist eine Eingabe/Ausgabesteuereinheit (I/O) 57 vorgesehen, um den Datentransfer oder die Eingabe/Ausgabe zwischen M-CPU 51, R-CPU 52, R-CPU 53 und dem W-RAM 55 und dem externen Speicher 20, dem Controller 56 und ähnlichem zu steuern. Außerdem sind vorgesehen: eine Verbindung 581 für eine Kassette, um einen externen Speicher 20 lösbar anzuschließen, Verbindungen 582 und 583, um die Bedieneinheiten 30 an den Controller 56 anzuschließen, Audioverbindungen 584 und 585, um Filter 17a und 17b an Lautsprecher 42L und 42R oder einen Kopfhörer 44 eines Fernsehers 40 anzuschließen, und eine Verbindung 586 für ein Bildsignal, um eine Bilderzeugungsschaltung 14 an eine Bild-Wiedergabevorrichtung 41 anzuschließen. In der folgenden Beschreibung werden die verschiedenen Arten von Verbindungen 581 bis 586 nur noch als Verbinder bezeichnet. Da der weitere Aufbau gleich ist zu dem in 1 dargestellten und die gleichen Abschnitte mit gleichen Bezugszeichen versehen sind, wird deren detaillierte Beschreibung hier unterlassen.
  • Da der externe Speicher 20 als Informationsspeichermedium dient, kann die ROM Kassette durch verschiedene andere Aufzeichnungs- oder Speichermedien ersetzt werden, wie beispielsweise eine CD-ROM zur optischen Datenspeicherung, eine magnetische Platte zur magnetischen Datenspeicherung und eine magnetoptische Platte. In diesem Fall muss ein Aufzeichnungs- oder Wiedergabegerät verwendet werden, das dem Informationsspeichermedium entspricht, um eine gewisse Datenmenge aus dem Informationsspeichermedium auszulesen und die Daten temporär in einen Speicherbereich in einem Teil des W-RAM 55 in der Videospielkonsole 50 zu speichern.
  • 8 zeigt ein Diagramm zur Illustration der Speicherbelegung im W-RAM 55. Im W-RAM 55 wird Speicherplatz auf der Grundlage von Programmen zugewiesenen vorher in einem Bild/Programm Speicher 21 im externen Speicher 20 gespeichert waren. Ein Beispiel wird im Folgenden beschrieben. Das W-RAM 55 enthält einen Programmbereich 55a, in den Teile der Programme übertragen und gespeichert werden, die im Bild/Programmspeicher 21 enthalten sind, einen Bildrahmenspeicherbereich 55b, in dem Bilddaten gespeichert sind, die einem Rahmen (entsprechend einem Bildrahmen) entsprechen, einen Z-Pufferbereich 55c, der Koordinatendaten für die Tiefen eines jeden Objekts oder einer jeden Figur speichert, einen Bilddatenbereich 55d, einen Geräuschdatenbereich 15 für die Bearbeitung von Audiodaten, einen Steuerdaten-Speicherbereich 55e und einen Arbeitsspeicherbereich 55f.
  • Der Geräuschspeicherbereich 15 entspricht dem Pufferspeicher in 1 und umfasst entsprechend der Darstellung in 8 einen nicht verzögerten Pufferbereich 15a, einen Verzögerungs-Pufferbereich 15b und einen Speicherbereich 15c für Objektkoordinatendaten. Der nicht verzögerte Pufferbereich 15a und der Verzögerungs-Pufferbereich 15b weisen Speicherstrukturen auf, wie sie genauer in 9 dargestellt sind, und die Daten werden wie dargestellt ein- und ausgelesen. Wenn Audiodaten für jede Verarbeitungseinheit in den nicht verzögerten Pufferbereich 15a eingeschrieben oder daraus ausgelesen werden, werden die vorher geschriebenen Daten jedes Mal Byte für Byte auf die nachfolgende Adresse verschoben, wenn die aus einem Byte bestehenden Audiodaten in die erste Adresse geschrieben werden. Audiodaten werden nach dem FIFO Prinzip (First-in-first-out) eingeschrieben und als Audiodaten (Lesedaten) in einen ersten Kanal (CH1) von der Endadresse ausgelesen. Die auf dem ersten Kanal aus dem nicht verzögerten Pufferbereich 15a ausgelesenen Audiodaten werden, so wie sie sind, in den erste Adresse des Verzögerungs-Pufferbereichs 15b geschrieben. Zu dieser Zeit werden Audiodaten von einer Adresse ausgelesen, die in einem Adressregister 15d (ein internes Register von R-CPU 53) gespeichert ist, und eine Leseadresse für den Verzögerungs-Pufferbereich 15b angibt, und als Audiodaten auf einem zweiten Kanal (CH2) ausgegeben. Die Anzahl von Adressen (Bytes) von der ersten Adresse des Verzögerungs-Pufferbereichs 15d zu der durch das Adressregister 15d angegebenen Adresse stellt die Verzögerungszeit für Geräusche auf dem zweiten Kanal gegenüber Geräuschen auf dem ersten Kanal dar. In diesem Fall reicht jedoch eine Kapazität entsprechend der maximalen Verzögerungszeit als Speicherkapazität des Verzögerungs-Pufferbereichs 15b aus. Allerdings wird dann ein Lese-Steuerprogramm in der R-CPU 52 kompliziert. Brauchen andererseits die Geräusche auf dem zweiten Kanal gegenüber den Geräuschen auf dem ersten Kanal nicht verzögert zu werden, kann die im Adressregister 15d angegebene Leseadresse auf die gleiche erste Adresse als Schreibadresse des verzögerten Pufferbereichs 15b gesetzt werden. Damit lässt sich die Verzögerungszeit in einem weiten Bereich ändern.
  • Obwohl die in 9 dargestellte Ausführungsform eben für den Fall beschrieben wurde, dass der Geräuschspeicherbereich (oder der Pufferspeicher für die Audioverarbeitung) 15 im Bereich der minimalen Speicherkapazität effektiv benutzt wurde, kann eine Speicherstruktur entsprechend 10 verwendet werden, wenn ein Geräuschspeicherbereich 15 mit einer großen Speicherkapazität zur Verfügung gestellt werden kann. In 10 wird die Speicherkapazität eines Verzögerungs-Pufferbereichs 15b' auf eine Kapazität gesetzt, die der Summe der Speicherkapazitäten eines nicht verzögerten Pufferbereichs 15a und eines Verzögerungs-Pufferbereichs 15b entspricht (15b' = 15a + 15b). Audiodaten auf dem ersten Kanal (CH1) werden in der gleichen Weise wie in 9 eingeschrieben und ausgelesen, während Audiodaten auf den zweiten Kanal (CH2) in der folgenden Weise eingeschrieben und ausgelesen werden. Dazu schreibt R-CPU 53 einen Wert einer Schreibadresse, die der Verzögerungszeit entspricht, in ein Adressregister 15e, das in R-CPU 53 enthalten ist. Dieselben Audiodaten wie auf dem ersten Kanal werden gleichzeitig in Adressen geschrieben, die durch das Adressregister 15e angegeben wurden. Die Audiodaten werden vom Verzögerungs-Pufferbereich l5b' (Geräusche auf dem zweiten Kanal werden erzeugt) ausgelesen, beginnend bei der Endadresse des Verzögerungs-Pufferbereichs 15b'. Das hat zur Folge, dass die Audiodaten auf dem zweiten Kanal zu einer Zeit ausgelesen werden, die gegenüber der Zeit verzögert ist, bei der die gleichen Audiodaten auf dem ersten Kanal ausgelesen werden (Geräusche auf den ersten Kanal werden erzeugt), und zwar durch einen Zeitabstand, der proportional ist zur Anzahl der Adressen, die sich durch Subtraktion des Adresswertes im Adressregister 15e von der Anzahl der Adressen ergibt, die dem Verzögerungs-Pufferbereich 15b entsprechen.
  • Auf der anderen Seite enthält der Speicherbereich 15c die Koordinatendaten eines Geräusch erzeugenden Objekts oder ähnlichem, das auf dem Bildschirm dargestellt ist. Beispielsweise speichert der Koordinatendaten-Speicherbereich 15c Koordinatendaten eines Objekts 1, das Geräusche erzeugt, wie beispielsweise eine feindliche Figur oder ein Wasserfall. Der Koordinatendaten-Speicherbereich 15c speichert Koordinatendaten eines Objekts 2, wie beispielsweise einer Kamera (oder einer Heldenfigur), deren Blickrichtung bewegt wird, um das Objekt 1 zu sehen, wenn ein Bediener die Bedienelemente 30 für Koordinatendaten des Objekts 2 betätigt. Wenn das Objekt 1 Geräusche erzeugt, berechnet M-CPU 51 eine Richtung zum Objekt 1 aus Blickrichtung von Objekt 2 sowie den Abstand dazwischen auf der Basis der Koordinatendaten von Objekt 1 und der Koordinatendaten von Objekt 2. Weiterhin ist vorher ein Programm aufgesetzt worden, um dreidimensionale Geräuscheffekte zu erzeugen, die entsprechend der Charakteristiken in den 3 bis 6 die geeignetsten dreidimensionalen Geräuscheffekte für eine dreidimensionale Bildanzeige erzeugen und auf der Basis von Daten ausgeführt werden, die Richtung und Entfernung angeben, um Daten für die Verzögerungszeit, die Lautstärke und die Art der Geräusche zu erzeugen und die diese Daten an R-CPU 53 geben. R-CPU 53 führt die Steuerung des Einschreibens und Auslesens aus, die anhand von 9 und 10 beschrieben wurden, um die Verzögerungszeit und die Lautstärke für die in jedem der ersten und zweiten Kanäle erzeugten Geräusche zu steuern..
  • Unter Bezugnahme auf 11 wird nun der schematische Ablauf des Spiels be schrieben. Wenn die Videokonsole 50 mit dem Netzschalter eingeschaltet wird, führen die M-CPU 51, und/oder die R-CPUs 52 und 53 die folgenden Operationen durch. Im Einzelnen wird im Schritt S10 ein Menü für die Initialisierung des Spiels angezeigt. Im Schritt S11 beurteilt M-CPU 51, ob eine Entscheidungstaste (beispielsweise ein Startknopf) im Bedienungselement 30 gedrückt wurde. Wenn festgestellt ist, dass der Startknopf gedrückt wurde, geht das Programm zum Schritt S12. Wird festgestellt, dass der Startknopf nicht gedrückt wurde, kehrt das Programm zu Schritt S10 zurück. Im Schritt S12 führen M-CPU 51, R-CPU 52 und R-CPU 53 Bildverarbeitung für den Spielablauf auf der Grundlage von Programm- und Bilddaten durch, die im externen Speicher 20 gespeichert sind. Im Schritt S13 wird ein Objekt 1, beispielsweise eine Geräusch erzeugende Feindfigur, und ein Objekt 2, eine vom Bediener gesteuerte Heldenfigur, auf der Anzeige 41 als eine Szene auf dem Spielschirm dargestellt. Im Schritt S14 wird entschieden, ob die Bedingung, dass Objekt 1 Geräusche erzeugen soll, auf der Basis des Spielprogramms erfüllt ist. Wenn festgestellt wird, dass die Bedingung erfüllt ist und Objekt 1 Geräusche erzeugen soll, geht das Programm zu Schritt S15 über. Im Schritt S15 erfolgt die Bearbeitung für den Audioausgang (Verarbeitung in einer Subroutine die im Detail anhand von 12 beschrieben werden wird). Wird andererseits in Schritt S14 in festgestellt, dass das Objekt 1 keine Geräusche erzeugen soll, kehrt das Programm zum Schritt S12 zurück. Über Schritt S12 wird die Bildbearbeitung entsprechend dem Spielfortschritt weitergeführt.
  • Bezug nehmend auf 12 wird nun die Subroutine für die Bearbeitung des Audioausgangs beschrieben. Zuerst liest im Schritt S20 die M-CPU 51 die Koordinatendaten von Objekt 1 und die Koordinatendaten von Objekt 2 aus dem Koordinaten-Datenspeicherbereich 15c, die entsprechend 8 im Geräuschspeicherbereich 15 gespeichert sind. In Schritt S21 wird auf der Basis der Koordinatendaten von Objekt 1 und Objekt 2 die Richtung von Objekt 1 aus der Blickrichtung von Objekt 2 und deren Abstand berechnet. In Schritt S22 wird entsprechend der Beschreibung der 3 bis 6 der Wert der Verzögerung auf der Basis der Richtung berechnet, in der das Objekt 1 existiert; weiter wird die Lautstärke auf der Basis von Richtung und Abstand berechnet. In Schritt S23 werden Daten an R-CPU 53 übergeben, die die berechnete Lautstärke und den Wert der Verzögerung repräsentieren, sowie Daten, die die Art des Geräusches darstellen. In Schritt S24 liest die R-CPU 53 dann einen Audiorahmen (Audiodaten für jede Verarbeitungseinheit) aus dem Geräuschquelledatenspeicher 22 im externen Speicher 20 auf der Basis von Daten, wie die Art des Geräusches angeben. In Schritt S25 werden die aus dem Geräuschquelledatenspeicher 22 ausgelesen Audiorahmendaten dann in den nicht verzögerten Pufferbereich 15a gegeben, der in 9 dargestellt ist. In Schritt S26 wird in die Lautstärke des Audiorahmens anhand der Daten eingestellt, die die Lautstärke repräsentieren. In Einzelnen wird die Lautstärke getrennt für die linke und rechte Seite entsprechend der Richtung des Objekts 1 gesteuert, wie es in 3 oder 4 durch L und R angezeigt ist, und die Lautstärke wird entsprechend den Abstand zum Objekt 1 gesteuert, wie es 5 darstellt. Im Schritt S27 werden die Daten des Audiorahmens, dessen Lautstärke gesteuert wird, aus der Endadresse des nicht verzögerten Pufferbereichs 15a ausgelesen. Im Schritt S28 wird dann der ausgelesene Audiorahmen als Audiodaten auf einem ersten Kanal ausgegeben. Im Schritt S29 stellt dann R-CPU 53 auf der Grundlage der Daten über den Wert der Verzögerung fest, ob eine Verzögerung vorliegt oder nicht. Wenn festgestellt wird, dass keine Verzögerung vorliegt, geht das Programm zum Schritt S30 über. Im Schritt S30 gibt R-CPU 53 den aus dem nicht verzögerten Pufferbereich 15a ausgelesenen Audiorahmen als Audiodaten auf einem zweiten Kanal aus.
  • Wird andererseits festgestellt, dass eine Verzögerung vorliegt, geht das Programm zu Schritt S31 über. Im Schritt S31 schreibt R-CPU 53 den aus dem nicht verzögerten Pufferbereich 15a ausgelesen Audiorahmen in den Verzögerungs-Pufferbereich 15b. Im Schritt S32 stellt R-CPU 53 dann fest, ob der vorherige Verzögerungswert gleich dem aktuellen Verzögerungswert ist. Wird festgestellt, dass sie nicht gleich sind, geht das Programm zum Schritt S33 über. Im Schritt S33 führt R-CPU 53 eine erneute Abtastung des Audiorahmens durch. Ist also der aktuelle Verzögerungswert kleiner als der vorherige Verzögerungswert, so komp rimiert R-CPU 53 den Audiorahmen um den Betrag der Änderung im Verzögerungswert. Liegt der aktuelle Verzögerungswert über dem vorherigen Verzögerungswert, so expandiert R-CPU 53 den Audiorahmen um die Änderung in Verzögerungswert. Im Schritt S33 wird dann eine erneute Abtastung des Audiorahmens durchgeführt, bevor das Programm zu Schritt S34 übergeht.
  • Wird andererseits in Schritt S32 festgestellt, dass der aktuelle Verzögerungswert gleich dem vorherigen Verzögerungswert ist, so geht das Programm zum Schritt S34 über. Entspricht der aktuelle Verzögerungswert dem Verzögerungswert zu dem Zeitpunkt, in dem die Geräuscherzeugung begann, so kann der aktuelle Verzögerungswert nicht mit einem vorherigen Verzögerungswert verglichen werden, und das Programm geht zu Schritt S34 über und betrachtet beide als gleich. Im Schritt S34 bestimmt R-CPU 53 einen Adresswert im Adressregister 15d auf der Grundlage des Verzögerungswertes. Im Schritt S35 liest R-CPU 53 dann den in den Verzögerungs-Pufferbereich 15b geschriebenen Audiorahmen aus der bezeichneten Adresse aus und gibt den Audiorahmen als Audiodaten auf den zweiten Kanal aus.
  • Unter Bezug auf das Zeitdiagramm in 13, 14 oder 15 werden nun die spezifischen Operationen in den vorgenannten Schritten S29 bis S35 beschrieben.
  • Im vorgehenden Schritt S29 werden Audiodaten entsprechend den Zeitdiagramm von 13 ausgegeben, wenn festgestellt wird, dass kein Verzögerungswert vorliegt. In diesem Beispiel ist die Länge der Zeit der Audiodaten für jede Bearbeitung der Einheit (einen Audiorahmen) auf 1/240 Sekunden eingestellt (ungefähr 4 ms). Wenn der Audiorahmen 1 ausgegeben wird, ist keine Verzögerungsbearbeitung durch den ersten und zweiten Kanal erforderlich und R-CPU 53 gibt gleichzeitig den Audiorahmen 1 auf den ersten und im zweiten Kanal aus. Dieser Vorgang wiederholt sich in Bezug auf Daten, die dem Audiorahmen 2 und den folgenden Daten entsprechen.
  • Wenn in Schritt S29 festgestellt wird, dass ein Verzögerungswert vorliegt und außerdem im folgenden Schritt S32, dass der vorherige Verzögerungswert und der aktuelle Verzögerungswert gleich sind (d.h. der Verzögerungswert ist konstant), werden die Audiodaten entsprechend dem Zeitdiagramm von 14 ausgegeben. In diesem Beispiel ist angenommen, dass ein Zeitabschnitt, der dem Verzögerungswert entspricht, variabel im Bereich von 0 bis 1/1000 Sekunden (1 ms) gesteuert wird, und dass der zweite Kanal einen konstanten Verzögerungswert von 1/2000 Sekunden (0,5 ms) aufweist. Wenn die Geräuscherzeugung gestartet wird, gibt R-CPU 53 den Audiorahmen 1 im zweiten Kanal nach einer Verzögerung von 0,5 ms bezüglich des Audiorahmens 1 im ersten Kanal aus, um einen Abschnitt zu bilden, in dem nur während einer Zeitperiode kein Geräusch auftritt, die dem Verzögerungswert auf der Seite des zweiten Kanals entspricht. Nachdem der Audiorahmen 1 auf der Seite des ersten Kanals ausgegeben wurde, verbleibt auf der Seite des zweiten Kanals ein Teil des Audiorahmens 1, der 0,5 ms entspricht. Wenn der Audiorahmen 2 auf der Seite des ersten Kanals ausgegeben ist, wird der Teil des Audiorahmens 1 auf der Seite des zweiten Kanals ausgegeben, der den verbleibenden 0,5 ms entspricht und danach der zweite Rahmen 2 ausgegeben. Dieser Vorgang wird in Bezug auf die Daten wiederholt, die dem Audiorahmen 3 und den folgenden Daten entsprechen. Audiodaten werden daher immer auf der Seite des zweiten Kanals mit einer Verzögerung von 0,5 ms bezüglich denen auf der Seite des ersten Kanals ausgegeben. Diese Operation wird wiederholt, bis der Verzögerungswert geändert oder die Geräuscherzeugung beendet wird, wobei es möglich ist, die Verarbeitung des Audioausgangs in dem Fall zu erreichen, bei dem ein konstanter Verzögerungswert vorliegt.
  • Wird in Schritt S29 festgestellt, dass ein Verzögerungswert vorliegt und außerdem im folgenden Schritt S32, dass der vorherige Verzögerungswert und der aktuelle Verzögerungswert nicht gleich sind (d.h. der Verzögerungswert ist variabel), werden die Audiodaten entsprechend dem Zeitdiagramm von 15 ausgegeben. Wird beispielsweise der Fall betrachtet, bei dem der Audiorahmen 1 und der Audiorahmen 2 auf der Seite des ersten Kanals ausgegeben werden, so wird der Au diorahmen 1 und der Audiorahmen 2 auf der Seite des zweiten Kanals nach Verzögerungen von 0,5 ms bzw. 0,25 ms ausgegeben (d.h. der Verzögerungswert wird von 0,5 ms auf 0,25 ms geändert). Die Änderung im Verzögerungswert besteht zu dieser Zeit in einer Abnahme um 0,25 ms. Deshalb komprimiert R-CPU 53 den Audiorahmen 1 auf der Seite des zweiten Kanals um 0,25 ms, entsprechend der Änderung in Verzögerungswert (d.h. der Audiorahmen 1 wird erneut abgetastet waren zwar von 4 ms auf 3,75 ms). Wenn der Audiorahmen 2 auf der Seite des ersten Kanals ausgegeben wird, verbleibt ein Teil, entsprechend 0,25 ms des Audiorahmens 1 auf der Seite des zweiten Kanals, so dass es möglich ist, die Änderung in Verzögerungswert von 0,5 ms auf 0,25 ms zu erreichen. Wenn der Audiorahmen 3 auf der Seite des ersten Kanals danach ausgegeben wird, wird der Verzögerungswert auf der Seite des zweiten Kanals auf 0,75 ms geändert, so dass R-CPU 53 den Audiorahmen 2 auf der Seite des zweiten Kanals um 0,5 ms erweitert, entsprechend der Änderung des Verzögerungswerts (d.h. der Audiorahmen 2 wird erneut abgetastet und zwar von 4 ms auf 4,5 ms). Wenn der Audiorahmen 3 auf der Seite des ersten Kanals ausgegeben ist, verbleibt ein Teil entsprechend 0,75 ms des Audiorahmens 2 auf der Seite des zweiten Kanals, so dass es möglich ist, die Änderung in Verzögerungswert von 0,25 ms auf 0,75 ms zu erreichen. Wird also die Länge der Zeit des Audiorahmens mit n bezeichnet, der vorherige Verzögerungswert mit db und der nächste Verzögerungswert mit df so kann die Verarbeitung des Audioausgangs bei variablen Verzögerungswert ermöglicht werden, indem der Audiorahmen erneut abgetastet wird und zwar von (n) auf (n + df – db).
  • Bei variablem Verzögerungswert kann also die Entstehung von Rauschen durch überlappende und verlorene Daten verhindert werden, indem die Audiodaten erneut abgetastet werden.
  • Obwohl die vorliegende Erfindung nun im Einzelnen beschrieben und erläutert wurde, versteht es sich von selbst, dass es sich dabei nur um eine beispielhafte Darstellung handelt, die den Umfang der vorliegenden Erfindung in keiner Weise beschränkt, und dass der Bereich der Erfindung nur durch den Wortlaut der beigefügten Ansprüche beschränkt ist.

Claims (10)

  1. Geräuschgeber zum Erzeugen in einem Bildanzeigegerät zum Anzeigen eines dreidimensionalen Bildes, wie es von einer virtuellen Kamera aus gesehen wird, von Geräuschen, die eine räumliche Ausdehnung aufweisen, die dem dreidimensionalen Bild entspricht, umfassend: erste Geräuscherzeugungsmittel (42L oder 42R) zum Erzeugen eines ersten Geräusches; zweite Geräuscherzeugungsmittel (42R oder 42L) zum Erzeugen eines zweiten Geräusches; Geräuschquelldatenspeichermittel (22) zum digitalen Speichern von Geräuschquelldaten; temporäre Speichermittel (15) zum temporären Speichern der Geräuschquelldaten, die ausgelesen sind von den Geräuschquelldatenspeichermitteln; Verzögerungszeitberechnungsmittel (12) zum Berechnen, wenn das Bildanzeigegerät ein erstes Anzeigeobjekt anzeigt, das so definiert ist, um Geräusche zu erzeugen, von Verzögerungszeit basierend auf einer Richtung zu dem ersten Anzeigeobjekt wie gesehen von der Position einer virtuellen Kamera oder einer Figur; Audioverarbeitungsmittel (12) zum Auslesen der Geräuschquelldaten, die dem ersten Anzeigeobjekt entsprechen, von den Geräuschquelldatenspeichermitteln für jede Zeiteinheit, wobei die Geräuschquelldaten in den temporären Speichermitteln gespeichert werden und wobei die Geräuschquelldaten ausgelesen werden als erste Geräuschquelldaten, und zum Auslesen der Geräuschquelldaten, die in den temporären Speichermitteln gespeichert sind als zweite Geräuschquelldaten, zu einer Zeit, die verzögert ist um die Verzögerungszeit, die durch die Verzögerungszeitberechnungsmittel berechnet ist, von der Zeit, bei der die ersten Geräuschquelldaten ausgelesen worden sind; erste Digital-zu-analog-Wandlungsmittel (16a oder 16b) zum Wandeln der ersten Geräuschquelldaten, die ausgelesen sind von den temporären Speichermitteln, in ein analoges Audiosignal und zum Einspeisen des analogen Audiosignals zu den ersten Geräuscherzeugungsmitteln; und zweite Digital-zu-analog-Wandlungsmittel (16b oder 16a) zum Wandeln der zweiten Geräuschquelldaten, die ausgelesen sind von den temporären Speichermitteln, in ein analoges Audiosignal und zum Einspeisen des analogen Audiosignals in die zweiten Geräuscherzeugungsmittel, dadurch gekennzeichnet, dass die Audioverarbeitungsmittel (12) Geräuschlautstärkesteuermittel (12a) umfassen zum individuellen Steuern von Geräuschlautstärken der ersten und zweiten Geräusche, die erzeugt werden durch die ersten und zweiten Geräuscherzeugungsmittel (42L, 42R), und zum Niederhalten von Steuerbereichen der ersten und einer zweiten Geräuschlautstärke in einem schmaleren Bereich als einem maximalen Bereich von einer minimalen Geräuschlautstärke zu einer maximalen Geräuschlautstärke auf der Basis einer Richtung zu dem ersten Anzeigeobjekt wie gesehen von einer Position der virtuellen Kamera oder der Figur.
  2. Geräuschgeber nach Anspruch 1, wobei die Geräuschlautstärkesteuermittel (12a) weiter angepasst sind zum individuellen Steuern der Geräuschlautstärken der ersten und zweiten Geräusche auf der Basis der Entfernung zwischen dem ersten Anzeigeobjekt und der virtuellen Kamera.
  3. Geräuschgeber nach Anspruch 2, wobei die Geräuschlautstärkesteuermittel (12a) die jeweiligen Geräuschlautstärken der ersten und zweiten Geräusche steuern, so dass sie invers proportional sind zu einem vorbestimmten Koeffizienten mal der Entfernung zwischen dem ersten Anzeigeobjekt und der virtuellen Kamera.
  4. Geräuschgeber nach irgendeinem der Ansprüche 1 bis 3, wobei die Geräuschlautstärkesteuermittel (12a) die Steuerbereiche der Geräuschlautstärken invers proportional niederhalten zu einem vorbestimmten Koeffizienten mal der Entfernung zwischen dem ersten Anzeigeobjekt und der virtuellen Kamera.
  5. Geräuschgeber nach Anspruch 1, wobei dort eine Steuerung bereitgestellt ist in Bezug auf das Bildanzeigegerät und wobei eine Anzeigeposition der Figur geändert wird in Reaktion auf eine Operation der Steuerung durch einen Spieler und wobei die Blickrichtung der virtuellen Kamera bewegt wird synchron mit einer Bewegung der Figur und wobei die Verzögerungszeitberechnungsmittel angepasst sind zum Berechnen der Verzögerungszeit auf der Basis einer Richtung zu dem ersten Anzeigeobjekt wie gesehen von der Figur, wenn das Bildanzeigegerät die Figur zusätzlich zu dem ersten Anzeigeobjekt anzeigt.
  6. Geräuschgeber nach Anspruch 5, wobei die Geräuschlautstärkesteuermittel (12a) zum individuellen Steuern der Geräuschlautstärken der ersten und zweiten Geräusche sind auf der Basis der Entfernung zwischen dem ersten Anzeigeobjekt und der Figur.
  7. Geräuschgeber nach Anspruch 5 oder 6, wobei die Geräuschlautstärkesteuermittel (12a) die jeweiligen Geräuschlautstärken des ersten und zweiten Geräusches steuern, so dass sie invers proportional sind zu einem vorbestimmten Koeffizienten mal der Entfernung zwischen dem ersten Anzeigeobjekt und der Figur.
  8. Geräuschgeber nach irgendeinem der Ansprüche 5 bis 7, wobei die Geräuschlautstärkesteuermittel (12a) die Steuerbereiche der Geräuschvolumen niederhalten invers proportional zu einem vorbestimmten Koeffizienten mal der Entfernung zwischen dem ersten Anzeigeobjekt und der Figur.
  9. Geräuschgeber nach Anspruch 1, wobei die temporären Speichermittel umfassen erste temporäre Speichermittel (15a), die in der Lage sind, die Geräuschquelldaten zu speichern, die ausgelesen werden für jede Zeiteinheit von den Geräuschquelldatenspeichermitteln, und die die Fähigkeit haben zum Speichern der Menge der Geräuschquelldaten, die der letzten Zeiteinheit entsprechen, und zweite temporäre Speichermittel (15b), die in der Lage sind, die Geräuschquelldaten zu speichern, die ausgelesen werden für jede Zeiteinheit von den Geräuschquelldatenspeichermitteln (22), und die eine Kapazität haben zum Speichern der Menge der Geräuschquelldaten, die um eine Menge größer ist entsprechend zu der vorbestimmten maximalen Verzögerungszeit als diejenige, die in den temporären Speichermitteln (15a) gespeichert ist, und die Audioverarbeitungsmittel (12) umfassen, und Schreiben der Geräuschquelldaten, die ausgelesen werden von den Geräuschquelldatenspeichermitteln (22), für jede Zeiteinheit in das erste temporäre Speichermittel (15a) und dann Auslesen der geschriebenen Geräuschquelldaten als erste Geräuschdaten, und Schreiben der Geräuschquelldaten, die ausgelesen werden von den Geräuschquelldatenspeichermitteln (22), für jede Zeiteinheit in die zweiten temporären Speichermittel (15b) mit einer Speicheradresse, die geändert ist in Abhängigkeit von der Verzögerungszeit, die berechnet wird durch die Verzögerungszeitberechnungsmittel, und dann Auslesen der geschriebenen Geräuschquelldaten als zweite Geräuschquelldaten, um die zweiten Geräuschquelldaten von den ersten Geräuschquelldaten um eine gewünschte Zeit im Bereich der maximalen Verzögerungszeit zu verzögern.
  10. Geräuschgeber nach Anspruch 1, wobei die temporären Speichermittel umfassen erste temporäre Speichermittel (15a), die in der Lage sind, die Geräuschquelldaten zu speichern, die ausgelesen werden für jede Zeiteinheit von den Geräuschquelldatenspeichermitteln, und die die Kapazität zum Speichern des Betrags der Geräuschquelldaten haben, die der letzten Zeiteinheit entsprechen, und zweite temporäre Speichermittel (15b), die in der Lage sind, die Geräuschquelldaten zu speichern, die von dem ersten temporären Speichermittel (15a) ausgelesen werden und die eine Kapazität haben zum Speichern der Menge der Geräuschquelldaten, welches der vorbestimmten maximalen Verzögerungszeit entspricht, und wobei die Audioverarbeitungsmittel (12) umfassen Schreiben der Geräuschquelldaten, die ausgelesen werden von den Geräuschquelldatenspeichermitteln (22), für jede Zeiteinheit in die ersten temporären Speichermittel (15a) und dann Auslesen der geschriebenen Geräuschquelldaten als erste Geräuschquelldaten und Schreiben der ersten Geräuschquelldaten, die ausgelesen werden von den ersten temporären Speichermitteln (15a), in die zweiten temporären Speichermittel (15b) und dann Auslesen der ersten Geräuschquelldaten als zweite Geräuschquelldaten mit einer Leseadresse, die geändert wird in Abhängigkeit von der Verzögerungszeit, die berechnet wird durch die Verzögerungszeitberechnungsmittel, um die zweiten Geräuschquelldaten von den ersten Geräuschquelldaten um die gewünschte Zeit in dem Bereich der maximalen Verzögerungszeit zu verzögern.
DE69636666T 1996-06-12 1996-09-20 Mit einer Bildanzeige synchronisierter Tonerzeuger Active DE69636666T8 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP17430796 1996-06-12
JP17430796 1996-06-12
JP24131296 1996-08-22
JP8241312A JPH1063470A (ja) 1996-06-12 1996-08-22 画像表示に連動する音響発生装置

Publications (2)

Publication Number Publication Date
DE69636666T2 true DE69636666T2 (de) 2007-10-04
DE69636666T8 DE69636666T8 (de) 2008-06-26

Family

ID=26495969

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69636666T Active DE69636666T8 (de) 1996-06-12 1996-09-20 Mit einer Bildanzeige synchronisierter Tonerzeuger
DE69636666A Expired - Lifetime DE69636666D1 (de) 1996-06-12 1996-09-20 Mit einer Bildanzeige synchronisierter Tonerzeuger

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69636666A Expired - Lifetime DE69636666D1 (de) 1996-06-12 1996-09-20 Mit einer Bildanzeige synchronisierter Tonerzeuger

Country Status (7)

Country Link
US (2) US5754660A (de)
EP (1) EP0813351B1 (de)
JP (1) JPH1063470A (de)
CN (1) CN1118019C (de)
CA (1) CA2185966C (de)
DE (2) DE69636666T8 (de)
TW (1) TW324807B (de)

Families Citing this family (128)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6241611B1 (en) 1995-05-10 2001-06-05 Nintendo Co., Ltd. Function expansion device and operating device using the function expansion device
DE69623903T2 (de) 1995-05-10 2003-05-15 Nintendo Co Ltd Betätigungsvorrichtung mit analogem steuerknüppel
JP3544268B2 (ja) 1995-10-09 2004-07-21 任天堂株式会社 三次元画像処理装置およびそれを用いた画像処理方法
US6007428A (en) * 1995-10-09 1999-12-28 Nintendo Co., Ltd. Operation controlling device and video processing system used therewith
MX9704155A (es) * 1995-10-09 1997-09-30 Nintendo Co Ltd Sistema procesador de imagenes tridimensionales.
US6283857B1 (en) 1996-09-24 2001-09-04 Nintendo Co., Ltd. Three-dimensional image processing apparatus with enhanced automatic and user point of view control
JP3524247B2 (ja) 1995-10-09 2004-05-10 任天堂株式会社 ゲーム機およびそれを用いたゲーム機システム
DE19681169B3 (de) * 1995-11-10 2012-03-01 Nintendo Co., Ltd. Steuerhebeleinrichtung
US6267673B1 (en) 1996-09-20 2001-07-31 Nintendo Co., Ltd. Video game system with state of next world dependent upon manner of entry from previous world via a portal
US6139433A (en) 1995-11-22 2000-10-31 Nintendo Co., Ltd. Video game system and method with enhanced three-dimensional character and background control due to environmental conditions
US6155926A (en) 1995-11-22 2000-12-05 Nintendo Co., Ltd. Video game system and method with enhanced three-dimensional character and background control
US6022274A (en) 1995-11-22 2000-02-08 Nintendo Co., Ltd. Video game system using memory module
JPH1063470A (ja) * 1996-06-12 1998-03-06 Nintendo Co Ltd 画像表示に連動する音響発生装置
US6241610B1 (en) 1996-09-20 2001-06-05 Nintendo Co., Ltd. Three-dimensional image processing system having dynamically changing character polygon number
US6244959B1 (en) 1996-09-24 2001-06-12 Nintendo Co., Ltd. Three-dimensional image processing system with enhanced character control
US6139434A (en) * 1996-09-24 2000-10-31 Nintendo Co., Ltd. Three-dimensional image processing apparatus with enhanced automatic and user point of view control
JPH10211358A (ja) * 1997-01-28 1998-08-11 Sega Enterp Ltd ゲーム装置
US6330486B1 (en) * 1997-07-16 2001-12-11 Silicon Graphics, Inc. Acoustic perspective in a virtual three-dimensional environment
JP3655438B2 (ja) 1997-07-17 2005-06-02 任天堂株式会社 ビデオゲームシステム
JPH11232487A (ja) 1998-02-13 1999-08-27 Sony Corp 情報処理装置および方法、並びに提供媒体
JP3342393B2 (ja) 1998-03-19 2002-11-05 株式会社コナミコンピュータエンタテインメントジャパン ビデオゲーム装置、コンピュータ読み取り可能な記録媒体
JPH11272156A (ja) * 1998-03-25 1999-10-08 Sega Enterp Ltd 仮想三次元音像生成装置及びその方法並びに媒体
US6093880A (en) * 1998-05-26 2000-07-25 Oz Interactive, Inc. System for prioritizing audio for a virtual environment
US6647119B1 (en) * 1998-06-29 2003-11-11 Microsoft Corporation Spacialization of audio with visual cues
US6309301B1 (en) * 1998-08-10 2001-10-30 Namco Ltd. Game communication with synchronization of soundtrack system
JP2000112485A (ja) * 1998-10-08 2000-04-21 Konami Co Ltd 背景音制御装置、背景音制御方法、背景音制御プログラムが記録された可読記録媒体及びビデオゲーム装置
JP2982147B1 (ja) 1998-10-08 1999-11-22 コナミ株式会社 背景音切替装置、背景音切替方法、背景音切替プログラムが記録された可読記録媒体及びビデオゲーム装置
US6712703B2 (en) 1998-11-19 2004-03-30 Nintendo Co., Ltd. Video game apparatus and information storage medium for video game
JP2000153061A (ja) * 1998-11-19 2000-06-06 Nintendo Co Ltd ビデオゲーム装置およびビデオゲーム用情報記憶媒体
US6612930B2 (en) 1998-11-19 2003-09-02 Nintendo Co., Ltd. Video game apparatus and method with enhanced virtual camera control
JP2000210471A (ja) * 1999-01-21 2000-08-02 Namco Ltd ゲ―ム機用音声装置および情報記録媒体
JP2000258170A (ja) * 1999-03-04 2000-09-22 Sony Corp ナビゲーション装置
JP2000261752A (ja) 1999-03-05 2000-09-22 Hewlett Packard Co <Hp> 音声付き画像録画再生装置
US6625509B1 (en) 1999-03-05 2003-09-23 R & F Industries, Llc Automated multisection rail material list generation system and method
JP2000267675A (ja) * 1999-03-16 2000-09-29 Sega Enterp Ltd 音響信号処理装置
US6280329B1 (en) * 1999-05-26 2001-08-28 Nintendo Co., Ltd. Video game apparatus outputting image and music and storage medium used therefor
KR100340043B1 (ko) * 1999-12-23 2002-06-12 오길록 보정된 표준 머리전달함수를 이용한 입체 음향 재생방법
US6351733B1 (en) * 2000-03-02 2002-02-26 Hearing Enhancement Company, Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
JP4095227B2 (ja) * 2000-03-13 2008-06-04 株式会社コナミデジタルエンタテインメント ビデオゲーム装置、ビデオゲームにおける背景音出力設定方法及び背景音出力設定プログラムが記録されたコンピュータ読み取り可能な記録媒体
US6879952B2 (en) * 2000-04-26 2005-04-12 Microsoft Corporation Sound source separation using convolutional mixing and a priori sound source knowledge
JP2002102532A (ja) * 2000-06-06 2002-04-09 Sony Computer Entertainment Inc 情報処理システム、方法、コンピュータプログラム、記録媒体、半導体デバイス
JP4679699B2 (ja) * 2000-08-01 2011-04-27 ソニー株式会社 音声信号処理方法及び音声信号処理装置
JP2002052243A (ja) * 2000-08-11 2002-02-19 Konami Co Ltd 対戦式ビデオゲーム装置
IT1318909B1 (it) * 2000-09-21 2003-09-19 Dmc Villa Tosca S R L Dispositivo per la generazione di immagini astratte sulla base disuoni
JP3991583B2 (ja) * 2000-11-24 2007-10-17 株式会社セガ 画像表示方法、コンピュータゲーム処理方法及び記録媒体
JP2002258842A (ja) * 2000-12-27 2002-09-11 Sony Computer Entertainment Inc 音声制御装置、音声制御方法、音声制御プログラム、音声制御プログラムを記憶したコンピュータ読み取り可能な記憶媒体、音声制御プログラムを実行するプログラム実行装置
GB2370954B (en) * 2001-01-04 2005-04-13 British Broadcasting Corp Producing a soundtrack for moving picture sequences
JP3712679B2 (ja) * 2001-02-08 2005-11-02 株式会社ソニー・コンピュータエンタテインメント 情報処理プログラム、情報処理プログラムを記録した記録媒体、プログラム実行装置、情報表現方法
JP3435156B2 (ja) * 2001-07-19 2003-08-11 松下電器産業株式会社 音像定位装置
GB2381175B (en) * 2001-08-29 2004-03-31 Bin-Ren Ching Audio control arrangement and method
US20030119575A1 (en) * 2001-12-21 2003-06-26 Centuori Charlotte S. Method and apparatus for playing a gaming machine with a secured audio channel
JP3939189B2 (ja) * 2002-04-17 2007-07-04 パナソニック コミュニケーションズ株式会社 情報処理装置、製品の組立工程表示用プログラム、及び製品の組立工程表示方法
JP2003325972A (ja) * 2002-05-17 2003-11-18 Nintendo Co Ltd 傾き操作に関連して音と画像を変化させるゲーム装置およびそのゲームプログラム
JP3534345B1 (ja) * 2002-10-22 2004-06-07 コナミ株式会社 ゲームプログラム及びゲーム装置
US7338373B2 (en) * 2002-12-04 2008-03-04 Nintendo Co., Ltd. Method and apparatus for generating sounds in a video game
US7371175B2 (en) * 2003-01-13 2008-05-13 At&T Corp. Method and system for enhanced audio communications in an interactive environment
DE10305820B4 (de) * 2003-02-12 2006-06-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Bestimmen einer Wiedergabeposition
US7606372B2 (en) * 2003-02-12 2009-10-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device and method for determining a reproduction position
US20040219980A1 (en) * 2003-04-30 2004-11-04 Nintendo Co., Ltd. Method and apparatus for dynamically controlling camera parameters based on game play events
US7164423B1 (en) * 2003-04-30 2007-01-16 Apple Computer, Inc. Method and apparatus for providing an animated representation of a reorder operation
DE10321980B4 (de) * 2003-05-15 2005-10-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Berechnen eines diskreten Werts einer Komponente in einem Lautsprechersignal
US20050173267A1 (en) * 2003-08-13 2005-08-11 Jitendran Muthuswamy Acoustic immunosensor for detecting neurotransmitter GABA
US7208669B2 (en) * 2003-08-25 2007-04-24 Blue Street Studios, Inc. Video game system and method
DE10355146A1 (de) * 2003-11-26 2005-07-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Tieftonkanals
US20050193145A1 (en) * 2004-02-26 2005-09-01 International Business Machines Corporation Providing a portion of an electronic mail message based upon digital rights
US20050219240A1 (en) * 2004-04-05 2005-10-06 Vesely Michael A Horizontal perspective hands-on simulator
WO2006104493A2 (en) * 2004-04-05 2006-10-05 Vesely Michael A Horizontal perspective display
US20050248566A1 (en) * 2004-04-05 2005-11-10 Vesely Michael A Horizontal perspective hands-on simulator
JP4207832B2 (ja) * 2004-04-16 2009-01-14 船井電機株式会社 デジタルデータ再生装置
US20050233719A1 (en) * 2004-04-20 2005-10-20 Demoor Robert G Apparatus and method for improved performance in a digital radio
US7818077B2 (en) * 2004-05-06 2010-10-19 Valve Corporation Encoding spatial data in a multi-channel sound file for an object in a virtual environment
WO2005119376A2 (en) 2004-06-01 2005-12-15 Vesely Michael A Horizontal perspective display
JP3827693B2 (ja) * 2004-09-22 2006-09-27 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置制御方法、ならびに、プログラム
US20080123867A1 (en) * 2004-10-21 2008-05-29 Shigehide Yano Sound Producing Method, Sound Source Circuit, Electronic Circuit Using Same, and Electronic Device
US20060126926A1 (en) * 2004-11-30 2006-06-15 Vesely Michael A Horizontal perspective representation
US20060252979A1 (en) * 2005-05-09 2006-11-09 Vesely Michael A Biofeedback eyewear system
US8717423B2 (en) * 2005-05-09 2014-05-06 Zspace, Inc. Modifying perspective of stereoscopic images based on changes in user viewpoint
US20060250391A1 (en) * 2005-05-09 2006-11-09 Vesely Michael A Three dimensional horizontal perspective workstation
US7875132B2 (en) * 2005-05-31 2011-01-25 United Technologies Corporation High temperature aluminum alloys
JP4802580B2 (ja) * 2005-07-08 2011-10-26 ヤマハ株式会社 オーディオ装置
WO2007022343A2 (en) * 2005-08-17 2007-02-22 Wms Gaming Inc. Wagering game system with independent volume control
US20070040905A1 (en) * 2005-08-18 2007-02-22 Vesely Michael A Stereoscopic display using polarized eyewear
US20070043466A1 (en) * 2005-08-18 2007-02-22 Vesely Michael A Stereoscopic display using polarized eyewear
US20090247298A1 (en) * 2005-09-09 2009-10-01 Kabushiki Kaisha Sega Game Device, Game System, and Game System Sound Effect Generation Method
US20090216069A1 (en) * 2006-01-25 2009-08-27 John Patrick Woodcock Enclosure for surgical procedures
JP4905648B2 (ja) * 2006-02-21 2012-03-28 学校法人東京理科大学 車両用刺激提示装置及び刺激提示方法
US8037414B2 (en) * 2006-09-14 2011-10-11 Avaya Inc. Audible computer user interface method and apparatus
JP5000989B2 (ja) * 2006-11-22 2012-08-15 シャープ株式会社 情報処理装置、情報処理方法およびプログラム
JP5050721B2 (ja) * 2007-08-06 2012-10-17 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20090253512A1 (en) * 2008-04-07 2009-10-08 Palo Alto Research Center Incorporated System And Method For Providing Adjustable Attenuation Of Location-Based Communication In An Online Game
US8616970B2 (en) * 2008-04-07 2013-12-31 Palo Alto Research Center Incorporated System and method for managing a multiplicity of text messages in an online game
US8265252B2 (en) * 2008-04-11 2012-09-11 Palo Alto Research Center Incorporated System and method for facilitating cognitive processing of simultaneous remote voice conversations
US20100098258A1 (en) * 2008-10-22 2010-04-22 Karl Ola Thorn System and method for generating multichannel audio with a portable electronic device
US20100260360A1 (en) * 2009-04-14 2010-10-14 Strubwerks Llc Systems, methods, and apparatus for calibrating speakers for three-dimensional acoustical reproduction
CN101923554A (zh) * 2009-06-11 2010-12-22 鸿富锦精密工业(深圳)有限公司 网页查找方法
US8724834B2 (en) * 2010-01-06 2014-05-13 Honeywell International Inc. Acoustic user interface system and method for providing spatial location data
US8717360B2 (en) * 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
CN102714708B (zh) * 2010-02-12 2016-06-01 汤姆森特许公司 用于同步内容播放的方法
KR101844511B1 (ko) * 2010-03-19 2018-05-18 삼성전자주식회사 입체 음향 재생 방법 및 장치
KR101717787B1 (ko) * 2010-04-29 2017-03-17 엘지전자 주식회사 디스플레이장치 및 그의 음성신호 출력 방법
JP2011254967A (ja) * 2010-06-08 2011-12-22 Universal Entertainment Corp ゲーミングマシン
JP5555068B2 (ja) * 2010-06-16 2014-07-23 キヤノン株式会社 再生装置及びその制御方法及びプログラム
JP5573426B2 (ja) * 2010-06-30 2014-08-20 ソニー株式会社 音声処理装置、音声処理方法、およびプログラム
CN102314917A (zh) * 2010-07-01 2012-01-11 北京中星微电子有限公司 一种影音文件的播放方法及播放装置
KR20120053587A (ko) * 2010-11-18 2012-05-29 삼성전자주식회사 디스플레이장치 및 그 사운드 제어방법
PL2647222T3 (pl) 2010-12-03 2015-04-30 Fraunhofer Ges Forschung Pozyskiwanie dźwięku za pomocą ekstrakcji informacji geometrycznej z estymacji kierunku nadejścia sygnału
JP5893129B2 (ja) 2011-04-18 2016-03-23 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオをアップミックスして3dオーディオを生成する方法とシステム
US8786529B1 (en) 2011-05-18 2014-07-22 Zspace, Inc. Liquid crystal variable drive voltage
KR101901908B1 (ko) * 2011-07-29 2018-11-05 삼성전자주식회사 오디오 신호 처리 방법 및 그에 따른 오디오 신호 처리 장치
JP2013102842A (ja) * 2011-11-11 2013-05-30 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5969200B2 (ja) 2011-11-11 2016-08-17 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
EP2706531A1 (de) * 2012-09-11 2014-03-12 Nokia Corporation Bildverbesserungsvorrichtung
US9504919B2 (en) 2013-05-31 2016-11-29 Cadillac Jack, Inc. Vertical and horizontal perception audio for a gaming device
CN104715753B (zh) * 2013-12-12 2018-08-31 联想(北京)有限公司 一种数据处理的方法及电子设备
CN104036789B (zh) * 2014-01-03 2018-02-02 北京智谷睿拓技术服务有限公司 多媒体处理方法及多媒体装置
GB2523353B (en) * 2014-02-21 2017-03-01 Jaguar Land Rover Ltd System for use in a vehicle
CN104134226B (zh) * 2014-03-12 2015-08-19 腾讯科技(深圳)有限公司 一种虚拟场景中的声音模拟方法、装置及客户端设备
GB201409764D0 (en) 2014-06-02 2014-07-16 Accesso Technology Group Plc Queuing system
US11900734B2 (en) 2014-06-02 2024-02-13 Accesso Technology Group Plc Queuing system
CN105451139A (zh) * 2014-06-24 2016-03-30 索尼公司 声音信号处理方法、装置和移动终端
JP5882403B2 (ja) * 2014-06-25 2016-03-09 株式会社カプコン 効果音加工プログラム及びゲーム装置
JP6390277B2 (ja) * 2014-09-02 2018-09-19 ソニー株式会社 情報処理装置、制御方法、およびプログラム
US9749746B2 (en) * 2015-04-29 2017-08-29 Fortemedia, Inc. Devices and methods for reducing the processing time of the convergence of a spatial filter
CN105740029B (zh) 2016-03-03 2019-07-05 腾讯科技(深圳)有限公司 一种内容呈现的方法、用户设备及系统
CN105959481B (zh) * 2016-06-16 2019-04-30 Oppo广东移动通信有限公司 一种场景音效的控制方法、及电子设备
CN106708268B (zh) * 2016-12-28 2019-08-30 深圳市中兴移动软件有限公司 一种实现应用交互处理的方法及装置
CN106843801B (zh) * 2017-01-10 2019-09-17 福建省天奕网络科技有限公司 音效的拟合方法及其系统
CN107885331A (zh) * 2017-11-09 2018-04-06 北京易讯理想科技有限公司 一种基于增强现实技术实现音频切换的交互方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4281833A (en) * 1978-03-20 1981-08-04 Sound Games, Inc. Audio racquet ball
US4281883A (en) * 1979-11-19 1981-08-04 Zacky Ralf G Panel molding support structure
JPS609397A (ja) * 1983-06-29 1985-01-18 Fuji Electric Co Ltd 誘導電動機用電力変換装置
JPS62155879A (ja) * 1985-12-27 1987-07-10 シャープ株式会社 パ−ソナルコンピユ−タ
US4817149A (en) * 1987-01-22 1989-03-28 American Natural Sound Company Three-dimensional auditory display apparatus and method utilizing enhanced bionic emulation of human binaural sound localization
US4792974A (en) * 1987-08-26 1988-12-20 Chace Frederic I Automated stereo synthesizer for audiovisual programs
US5105462A (en) * 1989-08-28 1992-04-14 Qsound Ltd. Sound imaging method and apparatus
US5046097A (en) * 1988-09-02 1991-09-03 Qsound Ltd. Sound imaging process
FI111789B (fi) * 1989-01-10 2003-09-15 Nintendo Co Ltd Elektroninen pelilaite, jossa on mahdollisuus pseudostereofoniseen äänen kehittämiseen
GB8924334D0 (en) * 1989-10-28 1989-12-13 Hewlett Packard Co Audio system for a computer display
US5052685A (en) * 1989-12-07 1991-10-01 Qsound Ltd. Sound processor for video game
US5138660A (en) * 1989-12-07 1992-08-11 Q Sound Ltd. Sound imaging apparatus connected to a video game
JP3047185B2 (ja) * 1990-01-26 2000-05-29 任天堂株式会社 ディジタル音源装置、およびそれに用いられる外部メモリカートリッジ
US5212733A (en) * 1990-02-28 1993-05-18 Voyager Sound, Inc. Sound mixing device
US5095507A (en) * 1990-07-24 1992-03-10 Lowe Danny D Method and apparatus for generating incoherent multiples of a monaural input signal for sound image placement
US5666136A (en) * 1991-12-17 1997-09-09 Sony Corporation Audio equipment and method of displaying operation thereof
WO1993019525A1 (en) * 1992-03-23 1993-09-30 Euphonix, Inc. Visual dynamics management for audio instrument
JPH0679060A (ja) * 1992-09-03 1994-03-22 Funai Electric Co Ltd コンピュータ機器
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5633993A (en) * 1993-02-10 1997-05-27 The Walt Disney Company Method and apparatus for providing a virtual world sound system
GB9307934D0 (en) * 1993-04-16 1993-06-02 Solid State Logic Ltd Mixing audio signals
JP3578783B2 (ja) * 1993-09-24 2004-10-20 ヤマハ株式会社 電子楽器の音像定位装置
GB2294854B (en) * 1994-11-03 1999-06-30 Solid State Logic Ltd Audio signal processing
JP3528284B2 (ja) * 1994-11-18 2004-05-17 ヤマハ株式会社 3次元サウンドシステム
JPH1063470A (ja) * 1996-06-12 1998-03-06 Nintendo Co Ltd 画像表示に連動する音響発生装置
US5798922A (en) * 1997-01-24 1998-08-25 Sony Corporation Method and apparatus for electronically embedding directional cues in two channels of sound for interactive applications

Also Published As

Publication number Publication date
EP0813351B1 (de) 2006-11-02
CN1118019C (zh) 2003-08-13
TW324807B (en) 1998-01-11
DE69636666D1 (de) 2006-12-14
AU6577396A (en) 1997-12-18
CN1169559A (zh) 1998-01-07
US5862229A (en) 1999-01-19
EP0813351A3 (de) 2004-03-17
CA2185966A1 (en) 1997-12-13
EP0813351A2 (de) 1997-12-17
US5754660A (en) 1998-05-19
JPH1063470A (ja) 1998-03-06
CA2185966C (en) 2006-04-25
AU713367B2 (en) 1999-12-02
DE69636666T8 (de) 2008-06-26

Similar Documents

Publication Publication Date Title
DE69636666T2 (de) Mit einer Bildanzeige synchronisierter Tonerzeuger
DE19634155B4 (de) Verfahren zur Simulation der akustischen Qualität eines Raumes und damit verbundener Audio-Digitaler Prozessor
EP1652405B1 (de) Vorrichtung und verfahren zum erzeugen, speichern oder bearbeiten einer audiodarstellung einer audioszene
DE69726262T2 (de) Tonaufnahme- und -wiedergabesysteme
DE60125664T2 (de) Vorrichtung und Verfahren zur Verarbeitung von Klangsignalen
DE69433258T2 (de) Raumklangsignalverarbeitungsvorrichtung
DE69734934T2 (de) Verfahren und vorrichtung zur projektion von schallquellen auf lautsprechern
EP3005737B1 (de) Mischpult, verfahren und computerprogramm zum bereitstellen eines tonsignals
DE19924337A1 (de) Verfahren und Vorrichtung zur Erzeugung und Steuerung einer simulierten Musikkonzert-Erfahrung
DE102006017791A1 (de) Wiedergabegerät und Wiedergabeverfahren
DE19950319A1 (de) Verfahren zum Synthetisieren eines dreidimensionalen Schallfeldes
DE4136022A1 (de) Vorrichtung zum ausweiten und steuern von schallfeldern
DE10321980B4 (de) Vorrichtung und Verfahren zum Berechnen eines diskreten Werts einer Komponente in einem Lautsprechersignal
DE102012017296A1 (de) Erzeugung von Mehrkanalton aus Stereo-Audiosignalen
DE102016103331A1 (de) Vorrichtung und Verfahren zur Wiedergabe von Audiosignalen in einem Kraftfahrzeug
DE102005001395B4 (de) Verfahren und Vorrichtung zur Transformation des frühen Schallfeldes
DE102005027978A1 (de) Vorrichtung und Verfahren zum Erzeugen eines Lautsprechersignals aufgrund einer zufällig auftretenden Audioquelle
DE60108564T2 (de) Dreidimensionale Bildverarbeitungseinheit
DE2249039C2 (de) Verfahren zur Aufnahme und Wiedergabe von richtungsbezogener Schallinformation
DE19911507A1 (de) Verfahren zur Verbesserung dreidimensionaler Klangwiedergabe
EP0808076A1 (de) Raumklangsystem
DE4033068C2 (de) Fernsehempfangsgerät mit Stereotonwiedergabe
WO2001047319A2 (de) Verfahren und anlage zur aufnahme und wiedergabe von klängen
DE3142462A1 (de) Lautsprecheranordnung
DE102021103210A1 (de) Surround-Sound-Wiedergabe basierend auf Raumakustik