EP1713057A1 - Virtual musical instrument - Google Patents

Virtual musical instrument Download PDF

Info

Publication number
EP1713057A1
EP1713057A1 EP05008274A EP05008274A EP1713057A1 EP 1713057 A1 EP1713057 A1 EP 1713057A1 EP 05008274 A EP05008274 A EP 05008274A EP 05008274 A EP05008274 A EP 05008274A EP 1713057 A1 EP1713057 A1 EP 1713057A1
Authority
EP
European Patent Office
Prior art keywords
musical instrument
sensors
virtual musical
person
instrument according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP05008274A
Other languages
German (de)
French (fr)
Inventor
Tünde Kirstein
Ivo Locher
Jamie Anthony Ward
Holger Junker
Gerhard Tröster
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eidgenoessische Technische Hochschule Zurich ETHZ
Original Assignee
Eidgenoessische Technische Hochschule Zurich ETHZ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eidgenoessische Technische Hochschule Zurich ETHZ filed Critical Eidgenoessische Technische Hochschule Zurich ETHZ
Priority to EP05008274A priority Critical patent/EP1713057A1/en
Publication of EP1713057A1 publication Critical patent/EP1713057A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/4013D sensing, i.e. three-dimensional (x, y, z) position or movement sensing.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/251Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments, MIDI-like control therefor
    • G10H2230/275Spint drum

Abstract

The instrument has inertial sensors (1, 2) attached to a garment e.g. jacket (4), and connected with one another to record person`s body movements based on a reference point which corresponds to a body part e.g. head or thigh or upper arm or upper part of the body of the person. A transmitting unit transmits the movements. A processor is coupled with a receiving unit to transform the movements into tones.

Description

Die vorliegende Erfindung betrifft ein virtuelles Musikinstrument gemäss dem Oberbegriff des Patentanspruchs 1.The present invention relates to a virtual musical instrument according to the preamble of patent claim 1.

In FR 2 803 714 Al [1] ist eine Musikjacke offenbart, bei der die betreffende Person einen Kopfhörer trägt. Diese Musikjacke erlaubt das Erleben von Musik wie an einem Konzert ohne dass die Nachbarn insbesondere durch die tiefen Töne (Bässe) gestört werden.In FR 2 803 714 Al [1] discloses a music jacket in which the person wearing a headset. This music jacket allows the experience of music as at a concert without disturbing the neighbors, especially by the low tones (bass).

Gemäss der Lehre von EP 0 773 699 A1 [2] erlaubt ein körperakustisches Gerät die Transformation von elektroakustischen Signalen in mechanische Schwingungen, um einem Benutzer ein wahres Umgebungsgefühl zu vermitteln.According to the doctrine of EP 0 773 699 A1 [2] allows a body acoustic device to transform electroacoustic signals into mechanical vibrations to give a user a true sense of the environment.

Die vorstehenden genannten Dokumente haben den Hintergrund, dass sich ein Individuum dem passiven Konsumieren von Inhalten wie z.B. Musik hingeben kann. Der aktuelle gesellschaftliche Trend geht jedoch in eine andere Richtung, nämlich zu mehr Eigenaktivität bei sehr hoher Mobilität. Eigenaktivität bedeutet dabei, dass eine Person Inhalte, wie z.B. Musik selber spielen oder erzeugen will. Grössere Musikinstrumente wie z.B. Schlagzeug oder Perkussion erfordern eine erheblichen Transport- und Aufstellungsaufwand. Im Sinne dieser Schrift ist unter dem Begriff «Musik» auch das Erzeugen eines Rhythmus mit einem Schlaginstrument oder mit einem Schlagzeug subsummiert.The above-mentioned documents have the background that an individual is subject to the passive consumption of contents such as e.g. Can indulge in music. However, the current social trend is moving in a different direction, namely to more self-activity with very high mobility. Personal activity here means that a person has contents, such as e.g. Play or create music yourself. Big musical instruments like e.g. Drums or percussion require considerable transportation and installation effort. For the purposes of this document, the term "music" also includes the generation of a rhythm with a percussion instrument or percussion.

Es stellt sich daher die Aufgabe, ein virtuelles Musikinstrument anzugeben, mit dem eine Person Musik spielen kann ohne dabei ein Musikinstrument physisch mitführen zu müssen oder physisch darauf Zugriff zu haben.It is therefore the task of specifying a virtual musical instrument with which a person can play music without having to physically carry a musical instrument or physically have access to it.

Diese Aufgabe wird durch ein virtuelles Musikinstrument gemäss den im Patentanspruch 1 angegebenen Merkmalen gelöst.This object is achieved by a virtual musical instrument according to the features specified in claim 1.

Das virtuelle Musikinstrument, wonach für die Transformation von Bewegungen in Töne
die Sensoren am Kleidungsstück miteinander verbunden sind und die Körperbewegung relativ zu einem Bezugspunkt registrieren, der einem starr anzunehmenden Körperteil entspricht;
ermöglicht ein virtuelles Musizieren, ohne dass ein Musikinstrument physisch vorhanden sein muss und dass dank der Integration von Sensoren in ein Kleidungsstück keine personenspezifische Anpassung erfordert.
The virtual musical instrument, according to which for the transformation of movements into sounds
the sensors on the garment are interconnected and register body movement relative to a reference point corresponding to a body part to be rigidly accepted;
allows for virtual music without the need for a physical instrument, and the integration of sensors into a piece of clothing does not require any customization.

Mit dem erfindungsgemässen virtuellen Musikinstrument erfasst das betreffende Kleidungsstück die von der Person ausgeführten Bewegungen und Körperpositionen relativ zu einem vorgegebenen als starr anzunehmenden Körperteil in einem Körperkoordinatensystem. Je nach ausgewähltem Instrument oder Klangbild werden entsprechende Töne generiert. Der Träger eines solchen Kleidungsstücks zusammen mit dem virtuellen Musikinstrument ist damit in der Lage, unabhängig von seinem Aufenthaltsort auf ein Instrument zu spielen.With the virtual musical instrument according to the invention, the garment in question captures the movements and body positions performed by the person relative to a predetermined body part to be assumed to be rigid in a body coordinate system. Depending on the selected instrument or sound, corresponding sounds are generated. The wearer of such a garment together with the virtual musical instrument is thus able to play on an instrument regardless of his whereabouts.

Vorteilhafte Ausführungsformen der vorliegenden Erfindung sind in den abhängigen Ansprüchen aufgeführt.Advantageous embodiments of the present invention are set forth in the dependent claims.

Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung näher erläutert. Dabei zeigen:

Figur 1
Erdkoordinatensystem (xe, ye, ze) und zugehöriges Körperkoordinatensystem (xk, yk, zk);
Figur 2
Anordnung der Sensoren in einer Schlagzeug-Jacke und
Figur 3
schematische Spiegel-Ansicht einer Sensoren tragenden Person.
Embodiments of the invention will be explained in more detail with reference to the drawing. Showing:
FIG. 1
Earth coordinate system (xe, ye, ze) and associated body coordinate system (xk, yk, zk);
FIG. 2
Arrangement of Sensors in a Drum Jacket and
FIG. 3
schematic mirror view of a person wearing sensors.

Die Transformation von Körperbewegungen auf Töne eines virtuellen Musikinstrumentes basiert auf der Grundidee, die virtuellen Musikinstrumente relativ zum Körper zu positionieren, sodass die Musikinstrumente für den Träger von ihm aus gesehen immer an der gleichen Stelle zu finden sind. Ein Musikinstrument, welches zu seiner rechten angeordnet ist, soll auch bei jeglicher Drehung um seine eigene senkrechte Körperachse zu seiner rechten verweilen und verbleiben. Dazu ist ein entsprechendes Körperkoordinatensystem (xk, yk, zk) einzuführen. Der Ursprung und die Ausrichtung der Achsen xk, yk, zk kann im wesentlichen beliebig gewählt werden, die einzige Bedingung ist, dass sie relativ zum Körper konstant bleiben. Eine Möglichkeit wäre, den Ursprung in den Körperschwerpunkt zu legen und die Achsen an den entsprechenden Körperachsen (longitudinal: senkrecht zur ebenen Bodenfläche von unten nach oben, transversal: waagerecht (parallel) zur ebenen Bodenfläche von links nach rechts, saggital: waagerecht (parallel) zur ebenen Bodenfläche von vorne nach hinten) auszurichten.The transformation of body movements to sounds of a virtual musical instrument is based on the basic idea of positioning the virtual musical instruments relative to the body, so that the musical instruments for the wearer from his point of view are always in the same place to find. A musical instrument, which is arranged to his right, should also dwell on his right vertical body axis to his right and remain with any rotation. For this purpose, a corresponding body coordinate system (xk, yk, zk) is to be introduced. The origin and orientation of the axes xk, yk, zk can be chosen essentially arbitrarily, the only condition being that they remain constant relative to the body. One possibility would be to place the origin in the center of gravity and the axes at the corresponding body axes (longitudinal: perpendicular to the flat bottom surface from bottom to top, transversal: horizontal (parallel) to the flat bottom surface from left to right, sagittal: horizontal (parallel) to the flat bottom surface from front to back).

Für die Erkennung von Körperbewegungen müssen die Positionen der für die Bewegung relevanten Körperteile relativ zum Körperkoordinatensystem (xk, yk, zk) zu jedem Zeitpunkt erfasst werden. Die zeitliche Änderung der Körperpositionen entspricht den Körperbewegungen. Die Körperpositionen können mit Sensoren gemessen werden, die in die Kleidung integriert sind. Die Sensoren sind dadurch nah genug am Körper, um Rückschlüsse auf Körperbewegungen ziehen zu können, behindern aber den Nutzer nicht (so wie zum Beispiel direkt am Körper befestigte Sensoren). Ausserdem ermöglicht diese Messmethode, dass der Nutzer sich frei bewegen kann und nicht auf stationäre Messtechnik angewiesen ist. Durch die Integration der Sensoren in ein Kleidungsstück 4 ist das System einfach und komfortabel zu nutzen. Die Art und Weise, wie ein Kleidungsstück 4 angelegt werden muss, ist selbsterklärend und nicht fehleranfällig, d.h. die Sensoren sitzen automatisch an der richtigen Stelle nach dem Anziehen.For the detection of body movements, the positions of the body parts relevant to the movement relative to the body coordinate system (xk, yk, zk) must be detected at any time. The temporal change of the body positions corresponds to the body movements. The body positions can be measured with sensors integrated into the clothing. The sensors are thus close enough to the body to draw conclusions about body movements, but do not hinder the user (such as, for example, directly attached to the body sensors). In addition, this measurement method allows the user to move freely and is not dependent on stationary measurement technology. By integrating the sensors into a garment 4, the system is easy and convenient to use. The manner in which a garment 4 must be put on is self-explanatory and not prone to error, i. the sensors are automatically in the right place after tightening.

Eine Möglichkeit, die Körperpositionen zu messen, besteht in der Verwendung von Inertial-Sensoren 2, die sich aufgrund ihrer geringen Grösse auch für die Integration in Kleidungsstücke 4 eignen. Mittels solcher Sensoren und geeigneter Signalverarbeitungsalgorithmen wie z.B. ein Kalmanfilter kann man die Orientierung eines Objektes, welches starr mit dem Sensor verbunden ist relativ zu einem Erdkoordinatensystem bestimmen. Bringt man nun die Inertial-Sensoren an den entsprechenden Körperteilen an, kann man deren Position beispielsweise mit Hilfe eines einfachen Körpermodels bestimmen. In diesem Körpermodel werden einzelne Körperteile, beispielsweise

  • Unterarme,
  • Oberarme,
  • oberkörper,
  • Kopf,
  • Oberschenkel,
  • Unterschenkel
als starre Körpersegmente angenommen, die definierte Abmasse haben, Die Position eines Körpersegments relativ zu dem gegebenen Körperkoordinatensystem kann dann über die gegebenen Orientierungen der Körperteile relativ zu einem Erdkoordinatensystem unter Berücksichtigung der Abmasse der starren Körpersegmente durch rein geometrische Überlegungen bestimmt werden.One way to measure body positions is through the use of inertial sensors 2, which are due to their small size are also suitable for integration into garments 4. By means of such sensors and suitable signal processing algorithms such as a Kalman filter one can determine the orientation of an object which is rigidly connected to the sensor relative to a ground coordinate system. If you now attach the inertial sensors to the corresponding body parts, you can determine their position, for example, with the help of a simple body model. In this body model are individual body parts, for example
  • Forearms,
  • Upper arms,
  • upper body,
  • Head,
  • thighs,
  • lower leg
The position of a body segment relative to the given body coordinate system can then be determined by the given orientations of the body parts relative to a ground coordinate system, taking into account the dimensions of the rigid body segments, by purely geometrical considerations.

In der Figur 1 ist beispielhaft ein Erdkoordinatensystem (xe, ye, ze), ein Körperkoordinatensystem (xk, yk, zk) sowie die gemessene Orientierung eines Sensors 2 gezeigt. Die Orientierung und Lage eines Sensors 2 wird in Bezug auf das Erdkoordinatensystem (xe, ye, ze) gemessen und dann auf das Körperkoordinatensystem (xk, yk, zk) mittels einer Koordinatentransformation umgerechnet.FIG. 1 shows an example of an earth coordinate system (xe, ye, ze), a body coordinate system (xk, yk, zk) and the measured orientation of a sensor 2. The orientation and position of a sensor 2 is measured with respect to the earth coordinate system (xe, ye, ze) and then converted to the body coordinate system (xk, yk, zk) by means of a coordinate transformation.

Um Töne zu erzeugen - eine Sequenz von Tönen wird oder soll als Musik empfunden werden-, werden bestimmten Körperpositionen oder Bewegungen mit einem Mapping-Algoritbmus Töne zugeordnet, dazu wird auf die Erläuterungen zur Figur 3 weiter unten verweisen.In order to produce sounds - a sequence of sounds is or should be perceived as music - are assigned to certain body positions or movements with a Mapping Algoritbmus tones, to refer to the explanations to figure 3 below.

Der Mapping-Algorithmus kann auf einem tragbaren oder in die Kleidung integrierten Gerät implementiert sein. Es ist aber auch möglich, die Sensordaten an ein externes Gerät zu senden und dort auszuwerten.The mapping algorithm can be implemented on a portable or apparel-integrated device. But it is also possible to send the sensor data to an external device and evaluate it there.

Die Klänge können mit tragbaren Geräten wiedergegeben werden (z.B. über Kopfhörer oder kleine Lautsprecher). Es ist aber auch möglich, die Klänge auf externen Musikanlagen wiederzugeben.The sounds can be played back on portable devices (such as headphones or small speakers). But it is also possible to play the sounds on external music systems.

Ein entsprechendes Musik-Kleidungsstück muss die Bewegungen eines Schlagzeugers umsetzen. Für diese Anwendung ist die Erkennung von Armbewegungen relevant, deswegen wird als Kleidungsstück eine Jacke 4 gewählt. Für die weiteren Erläuterungen wird nun auf die Figur 2 Bezug genommen. Im unteren und oberen Teil der Ärmel DER Jacke 4 sind jeweils Inertial-Sensoren 2 integriert. Der Torso dient als Bezugspunkt 1; über ihn wird das Körperkoordinatensystem definiert. Daher ist ein Sensor 1 im Vorderteil der Jacke auf Brusthöhe eingebaut. Alle Sensoren 2 sind miteinander vernetzt, z.B. mit einem textilen Kabel 3. Die Daten werden in einem tragbaren Gerät gesammelt und von dort an einen externen Rechner zur Auswertung gesendet. Daher ist eine Sende-Einheit zur Übertragung der aufgenommenen Körperbewegungen und ein mit einer Empfangseinheit gekoppelter Rechner vorgesehen, der die empfangenen Körperbewegungen in Töne transformiert.A corresponding piece of music must implement the movements of a drummer. For this application, the detection of arm movements is relevant, therefore, a jacket 4 is selected as a garment. For further explanation, reference is now made to FIG. Inertial sensors 2 are integrated in the lower and upper part of the jacket 4 jacket. The torso serves as reference point 1; it defines the body coordinate system. Therefore, a sensor 1 is installed in the front part of the jacket at chest level. All sensors 2 are networked together, e.g. with a textile cable 3. The data is collected in a portable device and sent from there to an external computer for evaluation. Therefore, a transmitting unit for transmitting the recorded body movements and provided with a receiving unit coupled computer is provided, which transforms the received body movements in tones.

Auf dem externen Rechner ist der Mapping-Algorithmus installiert. Der Rechner braucht jedoch nicht extern als Personalcomputer oder ähnlich ausgebildet zu sein. Der Mapping-Algorithmus ist konfigurierbar, das heisst, es können mehrere, disjunkte quaderförmige Bereiche definiert und unterschiedlichen Schlagzeugarten zugeordnet werden.The mapping algorithm is installed on the external computer. However, the computer does not need to be externally designed as a personal computer or similar. The mapping algorithm is configurable, which means that several disjoint cuboid areas can be defined and assigned to different drum types.

Definierten Bereichen können unterschiedliche Tontimbre oder Instrumente zugeordnet werden. Die Zuordnung von solchen Bereichen ist ansatzweise in Figur 3 gezeigt. Der eine Person umgebende Raum ist in Quader aufgeteilt und abgebildet. Diese Quader werden als Bereiche definiert. Es sind auch andere Einheiten für diese Abbildung denkbar wie z.B. Kugeln. Quader sind deshalb bevorzugt, weil sie keine lückenhafte und trotzdem disjunkte Abbildung des vorgenannten Raumes erlauben, Befindet sich ein bestimmter Sensor in einem dieser Bereiche wird die Erzeugung des entsprechenden Klanges getriggert. Die Erzeugung des Klanges kann auch noch von weiteren Faktoren abhängig gemacht werden, wie zum Beispiel von einem Geschwindigkeitsprofil. Das heisst der erzeugte Klang unterscheidet sich je nach der Geschwindigkeit, mit der sich der betreffende Sensor 2 durch den definierten Bereich bewegt. In der Figur 3 sind nun diesen Bereichen bestimmte Musikinstrumente einer Schlagzeuganordnung durch die Angabe des Instrumentes zugeordnet:

  • BassDrum Bass Drum;
  • CRI Cymbalrides;
  • Cym Cymbals;
  • HH HiHats.
Defined areas can be assigned different tone timbre or instruments. The assignment of such areas is partially shown in Figure 3. The space surrounding a person is divided into cubes and displayed. These cuboids are defined as areas. There are also other units imaginable for this illustration, such as spheres. Cuboids are preferred because they do not allow patchy and nevertheless disjoint imaging of the aforementioned space. If a particular sensor is located in one of these areas, the generation of the corresponding sound is triggered. The generation of the sound can also be made dependent on other factors, such as a speed profile. This means that the generated sound differs depending on the speed with which the relevant sensor 2 moves through the defined range. In FIG. 3, certain musical instruments of a drum arrangement are now assigned to these areas by the indication of the instrument:
  • Bass Drum Bass Drum;
  • CRI Cymbal Rides;
  • Cym Cymbals;
  • HH HiHats.

Durch die Implementierung eines konfigurierbaren Mapping-Algorithmus besteht die Möglichkeit, die Anzahl, die Lage und die Form der Bereiche zu verändern, denen ein Klang zugeordnet ist. Ausserdem können die zugeordneten Töne und Instrumente verändert und die weiteren Faktoren (wie das Geschwindigkeitsprofil) konfiguriert werden.By implementing a configurable mapping algorithm, it is possible to change the number, location and shape of the areas to which a sound is associated. In addition, the assigned sounds and instruments can be changed and the other factors (such as the speed profile) can be configured.

So sind gemäss der Figur 3 mehrere hintereinander, also in der Tiefe angeordnete Quaderreihen möglich, dies ist in der Figur 3 aus Übersichtlichkeitsgründen nicht dargestellt. Die Lage, Grösse und Anzahl der Bereiche ist frei wählbar. Ein Klang wird erzeugt, wenn sich eine Hand in einem der definierten Bereiche befindet und eine schlag-typische Bewegung macht (d.h. aus einer erdgerichteten Beschleunigung wieder abbremst). Die Töne werden über Lautsprecher, die an den externen Rechner angeschlossen sind, wiedergegeben.Thus, according to FIG. 3, a plurality of cuboid rows arranged one behind the other, that is to say in the depth, are possible; this is not shown in FIG. 3 for reasons of clarity. The location, size and number of areas is freely selectable. A sound is produced when a hand is in one of the defined areas and makes a typical strike movement (ie decelerates again from a grounded acceleration). The sounds are played through speakers connected to the external computer.

Das Dreieck mit den dick ausgezogenen Linien repräsentiert Bauchnabel, linke Schulter, rechte Schulter. Die Bereiche sind in Quadern mit horizontalen Reihen gegliedert. Jede Reihe entspricht einer Trommel- oder Beckenart. Der linke und rechte Bereich einer Reihe sind auf dieselbe Trommel oder Becken konfiguriert. Der mittlere Bereich ist jeweils einem anderen Typ der gleichen Trommel oder Becken zugeordnet. Die unterste Reihe entspricht den «Bassdrums», dann folgen die «Snares» und weiter hinten die «CymbalRides». Auf der nächsten Ebene kommen die «HiHats» und zuoberst sind die «Cymbals». Je nach Schlagstärke wird ein anderes Sample abgespielt. Es gibt zwischen 5 und 11 Samples pro Trommel/Becken. Pro Schlag wird die Richtung «von der Handfläche weg» bestimmt. Ist diese Richtung «nach unten», so wird das Sample ohne Effekt abgespielt. Ist diese Richtung «nach oben», so wird das Sample zusätzlich in ein «Delay mit Feedback» geschickt. Das heisst, es wird periodisch aber immer leiser wiederholt. Ist die Richtung "von der Handfläche weg" horizontal, so wird das Sample in ein doppelt so schnelles «Delay mit Feedback» geschickt. Alle diese Effekte lassen sich konfigurieren oder ausschalten.The triangle with the thick lines represents navel, left shoulder, right shoulder. The areas are arranged in cuboids with horizontal rows. Each row corresponds to a drum or pelvic type. The left and right sections of a row are configured on the same drum or basin. The middle area is assigned to a different type of the same drum or basin. The bottom row corresponds to the "bass drums", then the "snares" and further to the "cymbal rides". At the next level are the hi-hats and at the top are the cymbals. Depending on the impact strength, another sample is played. There are between 5 and 11 samples per drum / cymbal. Per stroke, the direction "away from the palm" is determined. If this direction is "down", the sample will be played without effect. If this direction is "upwards", the sample is additionally sent to a "delay with feedback". This means that it is repeated periodically but more and more quietly. If the direction "away from the palm" is horizontal, the sample will be sent twice as fast with "feedback". All of these effects can be configured or turned off.

Die vorgenannten Sensoren sind aus dem stand der Technik bekannt und beispielsweise verfügbar bei
Xsens Technologies B.V.
NL - 7500 AM Enschede
URL http://www.xsens.com .
The aforementioned sensors are known from the prior art and, for example, available at
Xsens Technologies BV
NL - 7500 AM Enschede
URL http://www.xsens.com .

Die Triggerung wird so programmiert, dass sie robust ist und trotzdem schon kleine Schläge genügen, um sie auszulösen. Insbesondere werden Doppeltriggerungen und spontantriggerungen unterdrückt. Dazu werden sowohl die kalibrierten Beschleunigungssensordaten, wie auch die Drehmatrizen, die die Software «MT9» der Firma Xsens berechnet, benutzt. Einerseits wird aus der Position der Hand, die aus dem Vektormodell und den Drehmatrizen berechnet wird, eine Beschleunigung parallel zur Geschwindigkeit berechnet. Anderseits wird aus den kalibrierten Daten der Beschleunigungssensoren an den Handgelenken eine Beschleunigung (ohne Erdgravitation) in Richtung der lokalen z-Achse berechnet. Diese beiden Kurven brauchen beide fast gleichzeitig einen Peak, damit ein Sample getriggert wird.The triggering is programmed to be sturdy and still be small enough to trigger it. In particular, double triggering and spontaneous triggering are suppressed. For this purpose, both the calibrated acceleration sensor data and the rotary matrices calculated by the software "MT9" from Xsens are used. On the one hand, an acceleration becomes parallel from the position of the hand calculated from the vector model and the rotation matrices calculated to the speed. On the other hand, an acceleration (without earth gravity) in the direction of the local z-axis is calculated from the calibrated data of the acceleration sensors on the wrists. These two curves both need a peak almost simultaneously to trigger a sample.

Ausführungsformen der vorliegenden Erfindung sind keineswegs auf Schlagzeuginstrumente beschränkt, ebenso kann in einer weiteren Ausführungsform eine Orgel mit Manualen und Pedalen oder ein Klavier gemäss der vorliegenden Erfindung als virtuelles Musikinstrument nachgebildet werden. Im Falle einer Orgel ist neben einer mit Sensoren versehenen Jacke 4 eine entsprechende Hose 4 vorzusehen.Embodiments of the present invention are by no means limited to percussion instruments, and in another embodiment an organ with manuals and pedals or a piano according to the present invention may be modeled as a virtual musical instrument. In the case of an organ is provided in addition to a provided with sensors jacket 4 a corresponding pants 4.

Liste der verwendeten BezugszeichenList of reference numbers used

11
Bezugssensor; Sensor am BezugspunktReference sensor; Sensor at the reference point
22
Sensorsensor
33
textiles Kabeltextile cable
44
Kleidungsstück, JackeGarment, jacket
1010
Bezugspunktreference point
LiteraturlisteBibliography

[1][1]
FR 2 803 714 A1
«Casque musical integral»
C.M.I Societe à responsabilité limite
FR 2 803 714 A1
«Casque musical integral»
CMI Societe à responsabilité limite
[2][2]
EP 0 773 699 Al
«Sound feeling device, playing device, method of controlling the playing device, playing device using light beam and acoustic device»
CAPCOM C.., Ltd.
Psala-shi,
Osaka-fu (JP)
EP 0 773 699 al
"Sound feeling device, playing device, method of controlling the playing device, playing device using light beam and acoustic device"
CAPCOM C .., Ltd.
Psala-shi,
Osaka-fu (JP)

Claims (6)

Virtuelles Musikinstrument, das enthält: - eine Mehrzahl von an einem Kleidungsstück (4) angebrachten Sensoren (1, 2) zur Aufnahme von Körperbewegungen einer Person; - eine Sende-Einheit zur Übertragung der aufgenommenen Körperbewegungen; - ein Rechner der mit einer Empfangseinheit gekoppelt ist, der die empfangenen Körperbewegungen in Töne transformiert; dadurch gekennzeichnet, dass
die Sensoren (1, 2) am Kleidungsstück (4) miteinander verbunden (3) sind und die Körperbewegung relativ zu einem Bezugspunkt (1, 10) registrieren, der einem starr anzunehmenden Körperteil entspricht.
Virtual musical instrument containing: - a plurality of attached to a garment (4) sensors (1, 2) for receiving body movements of a person; a transmitting unit for transmitting the recorded body movements; a computer coupled to a receiving unit which transforms the received body movements into tones; characterized in that
the sensors (1, 2) on the garment (4) are interconnected (3) and register body movement relative to a reference point (1, 10) corresponding to a body part to be rigidly accepted.
Virtuelles Musikinstrument nach Anspruch 1,
dadurch gekennzeichnet, dass
die Sensoren (1, 2) als Inertial-Sensoren ausgebildet sind.
Virtual musical instrument according to claim 1,
characterized in that
the sensors (1, 2) are designed as inertial sensors.
Virtuelles Musikinstrument nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass
der Bezugspunkt (1, 10) dem Kopf oder dem Oberschenkel oder dem Oberarm oder dem Oberkörper einer Person entspricht.
Virtual musical instrument according to claim 1 or 2,
characterized in that
the reference point (1, 10) corresponds to the head or thigh or upper arm or upper body of a person.
Virtuelles Musikinstrument nach einem der Ansprüche 1 bis 3
dadurch gekennzeichnet, dass
im Rechner der eine Person umgebenden Raum abgebildet ist und die Lage der Sensoren (1, 2) diesen Bereichen (BassDrum, CRI, Cym, HH) zugeordnet wird, wobei jedem Bereich (BassDrum, CRI, Cym, HH) ein Tontimbre und/oder ein Musikinstrument zugeordnet ist.
Virtual musical instrument according to one of claims 1 to 3
characterized in that
in the computer of a person surrounding space is shown and the position of the sensors (1, 2) assigned to these areas (BassDrum, CRI, Cym, HH), each area (BassDrum, CRI, Cym, HH) a Tontimbre and / or a musical instrument is assigned.
Virtuelles Musikinstrument nach Anspruch 4,
dadurch gekennzeichnet, dass
die Bereiche als Quader ausgebildet sind.
Virtual musical instrument according to claim 4,
characterized in that
the areas are formed as a cuboid.
Virtuelles Musikinstrument nach Anspruch 4 oder 5,
dadurch gekennzeichnet, dass
für die Transformation in Töne abhängig von der Geschwindigkeitsänderung der Lage eines Sensors (1, 2) in einem Bereich (BassDrum, CRI, Cym, HH) ist.
Virtual musical instrument according to claim 4 or 5,
characterized in that
for the transformation into tones depending on the speed change of the location of a sensor (1, 2) in a range (BassDrum, CRI, Cym, HH).
EP05008274A 2005-04-15 2005-04-15 Virtual musical instrument Withdrawn EP1713057A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP05008274A EP1713057A1 (en) 2005-04-15 2005-04-15 Virtual musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP05008274A EP1713057A1 (en) 2005-04-15 2005-04-15 Virtual musical instrument

Publications (1)

Publication Number Publication Date
EP1713057A1 true EP1713057A1 (en) 2006-10-18

Family

ID=34935226

Family Applications (1)

Application Number Title Priority Date Filing Date
EP05008274A Withdrawn EP1713057A1 (en) 2005-04-15 2005-04-15 Virtual musical instrument

Country Status (1)

Country Link
EP (1) EP1713057A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0507355A2 (en) * 1986-10-14 1992-10-07 Yamaha Corporation Musical tone control apparatus using detector
EP0666544A1 (en) * 1994-02-03 1995-08-09 Canon Kabushiki Kaisha Gesture input method and apparatus
FR2806288A1 (en) * 2000-03-16 2001-09-21 Kitchen Interactive clothing and accessories for detecting and analysing bodily movements, comprises woven optical fibres to detect bending, accelerometers to detect movement and transmitter/receiver
US6388183B1 (en) * 2001-05-07 2002-05-14 Leh Labs, L.L.C. Virtual musical instruments with user selectable and controllable mapping of position input to sound output
US20020088335A1 (en) * 2000-09-05 2002-07-11 Yamaha Corporation System and method for generating tone in response to movement of portable terminal
US20040011189A1 (en) * 2002-07-19 2004-01-22 Kenji Ishida Music reproduction system, music editing system, music editing apparatus, music editing terminal unit, method of controlling a music editing apparatus, and program for executing the method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0507355A2 (en) * 1986-10-14 1992-10-07 Yamaha Corporation Musical tone control apparatus using detector
EP0666544A1 (en) * 1994-02-03 1995-08-09 Canon Kabushiki Kaisha Gesture input method and apparatus
FR2806288A1 (en) * 2000-03-16 2001-09-21 Kitchen Interactive clothing and accessories for detecting and analysing bodily movements, comprises woven optical fibres to detect bending, accelerometers to detect movement and transmitter/receiver
US20020088335A1 (en) * 2000-09-05 2002-07-11 Yamaha Corporation System and method for generating tone in response to movement of portable terminal
US6388183B1 (en) * 2001-05-07 2002-05-14 Leh Labs, L.L.C. Virtual musical instruments with user selectable and controllable mapping of position input to sound output
US20040011189A1 (en) * 2002-07-19 2004-01-22 Kenji Ishida Music reproduction system, music editing system, music editing apparatus, music editing terminal unit, method of controlling a music editing apparatus, and program for executing the method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
EMMANUEL FLÉTY: "Interactive devices for gestural acquisition in musical live performance context", PROCEEDINGS OF SCI 2001 - ORLANDO - INTERACTIVE DEVICES & GESTURAL ACQUISITION, 2001, IRCAM-PARIS, XP002332240 *

Similar Documents

Publication Publication Date Title
v. Békésy Human skin perception of traveling waves similar to those on the cochlea
EP1215482A3 (en) Object examination device
DE112010003983T5 (en) Gehhaltungsbestimmungsvorrichtung
WO2005005000A1 (en) Measuring arrangement
DE4343411C2 (en) Guitar signal analyzer
WO2001086512A3 (en) Method for three-dimensional digital designing of garment
DE112018007984T5 (en) SOUND SIGNAL GENERATING DEVICE, KEY INSTRUMENT AND PROGRAM
CN108421236A (en) Person stub pile prepared from wood kinematic system and its motion optimization method
DE112017008070T5 (en) SOUND OUTPUT DEVICE
EP0374902B1 (en) Microphone system for determining the direction and position of a sound source
EP1713057A1 (en) Virtual musical instrument
DE19614830A1 (en) Keyboard musical instrument appts. esp. for types with electromagnetic actuator
DE19927781B4 (en) Sounding training device
DE19581930B4 (en) Piano with a built-in electronic musical instrument
DE102009019405A1 (en) Apparatus and method for binaural reproduction of audio sonar signals
EP0141976B1 (en) Method for determining the quality of rackets
DE102006004488B4 (en) microphone
DE19644780A1 (en) Keyboard electronic musical instrument
DE102018205645A1 (en) Resonance sound control device and resonant sound localization control method
DE10147710B4 (en) Measurements on a stringed instrument
DE19636831C1 (en) Method for compensating negative emotions for a person working on a data processing system, and device for carrying out the method
Miccoli et al. Recent advances in noise and vibration active control by means of piezoceramic transducers
DE102007054815B4 (en) Apparatus for generating sounds and method for generating a sound
WO2010115519A1 (en) Music system
DE102016015431B4 (en) Analog drum for musical applications

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU MC NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA HR LV MK YU

AKX Designation fees paid
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20070419

REG Reference to a national code

Ref country code: DE

Ref legal event code: 8566