WO2006005665A2 - Method for reacting to changes in context by means of a neural network, and neural network used for reacting to changes in context - Google Patents

Method for reacting to changes in context by means of a neural network, and neural network used for reacting to changes in context Download PDF

Info

Publication number
WO2006005665A2
WO2006005665A2 PCT/EP2005/052859 EP2005052859W WO2006005665A2 WO 2006005665 A2 WO2006005665 A2 WO 2006005665A2 EP 2005052859 W EP2005052859 W EP 2005052859W WO 2006005665 A2 WO2006005665 A2 WO 2006005665A2
Authority
WO
WIPO (PCT)
Prior art keywords
pool
model
pools
neural network
output
Prior art date
Application number
PCT/EP2005/052859
Other languages
German (de)
French (fr)
Other versions
WO2006005665A3 (en
Inventor
Gustavo Deco
Martin Stetter
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO2006005665A2 publication Critical patent/WO2006005665A2/en
Publication of WO2006005665A3 publication Critical patent/WO2006005665A3/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Definitions

  • the invention relates to a method for responding to text changes with a neural network, as well as a neuronal network, which can respond to context changes.
  • Context is understood to be an external meaning context which indicates which behavior makes sense in a particular situation.
  • the context could indicate whether the price is going up or down, and depending on that context, it would be a wise decision to buy or sell the stock.
  • the context may also indicate that a change in the weather is imminent, and depending on this change in the weather, a positive or negative weather forecast would make sense.
  • the context may also be a variable strategy of a player of a computer game, and depending on this strategy, a particular behavior of a character may be useful in the computer game (e.g., attack or defense).
  • the invention thus relates to a method of data processing in order to find a correct behavior for a given situation.
  • Behavior is already understood here as the estimation of the situation, but the behavior can also include a decision or an action.
  • Intelligent software agents are known which are developed using methods of artificial intelligence. These are rule-based systems which have a database with rules and a logic for processing the rules. The rules are explicitly formulated and must be manually entered by the developer. It is a declarative programming model. An example of such intelligent agents are BDI agents (lieve-desire-intention). These collect sensory data, process it with a set of rules and choose a behavior.
  • BDI agents lieve-desire-intention
  • the invention also relates to dynamic reinforcement learning, in which a system or agent receives feedback on its behavior, which serve to enable it to flexibly respond to context changes. If the system or the agent z. If, for example, a buy decision is made and the share price subsequently falls, the system or the agent can learn by means of appropriate feedback and choose a more correct behavior in the next situation. Behavior is a decision, a situation assessment or an action ver ⁇ stood. The evaluation of a situation can also be called a feeling. Dynamic gain learning is described in document [1].
  • Neural networks are known in particular as learning systems. Information about the current situation in the form of input information is fed to such a neural network. The input information is processed by the neural network. Subsequently, output information can be taken from the neural network. The output information describes the behavior of the neural network and thus represents a decision, a situation evaluation or an action instruction.
  • a neural network can be trained so that it learns which output information is correct for a given input information. This is called synaptic learning. Synapses are the connections between the individual neurons, the elements of the neural network. By expressing the synaptic strengths, the neural network learns in this context the correct mapping of input information to output information.
  • neural networks lies in the fact that the rules for mapping the input information to output information do not have to be specified explicitly and declaratively. Rather, the neural network learns an implicit rule representation from the data with which it is trained.
  • the disadvantage here is that the neural network can not react flexibly to context changes.
  • a change in context that is to say a change in the external context of meaning, constitutes the requirement for the neural network to convert the mapping of input information to output information with immediate effect.
  • synaptic learning is an incremental, time-delayed process which does not allow a flexible and rapid response to context changes.
  • the task arises to indicate a method for the reaction to context changes and a data processing unit which can react to context changes.
  • input information is supplied to an input layer of the neural network. Furthermore, output information is taken from an output layer of the neural network. Furthermore, several models are stored in the neural network, each of which predefines a mapping of the input information onto the output information. Only one model can be active at the same time. The following steps are then repeated: The neural network forms an inputting information with the active model on an output information. This is then taken from the output layer. If the extracted output information for the supplied input information is incorrect in a current context, the neural network receives a false feedback, whereupon the neural network activates another model.
  • an action is derived and executed from the extracted output information.
  • the neural network contains exciting pulsed neurons.
  • These form model pools, with each model being assigned at least one model pool.
  • the model pools compete with each other, whereby an active model pool prevails in the competition.
  • the neuronal network contains inhibiting pulsed neurons. These form at least one inhibitory pool.
  • the inhibitory pool exerts a global inhibition on the competing model pools.
  • the false feedback activates the inhibiting pool.
  • the activated inhibiting pool performs a complete inhibition of all model pools. The complete inhibition then deactivates the active model pool. After complete inhibition, another model pool is activated.
  • sys- tems adapt to the exciting pulsed neurons of the active model pool.
  • recurrent weights of the active model pool decrease. This leads to the fact that the active model pool is subject to the complete inhibition in the competition compared to the other model pools.
  • the adaptation of the synapses is implemented as short-term synaptic depression (STD).
  • exciting pulsed neurons form rule pools.
  • Each of these rule pools ver ⁇ switches each one of the input information with one of the output information.
  • the rule pools compete with each other, with the active model pool supporting a selection of rule pools.
  • the supplied input information activates a rule pool from this selection.
  • the appropriately activated rule pool activates the output information to be taken. This will be taken out afterwards.
  • the neural network includes interconnections formed by Hebbian learning.
  • the neural network for responding to context changes has an input layer to which input information can be supplied. Furthermore, there is an intermediate layer, by means of which the input information can be mapped onto output information. Furthermore, there is an output layer from which the output information can be taken. Finally, the neural network also has a model layer with which the image formation in the intermediate layer can be controlled as a function of a context.
  • the model layer contains exciting pulsed neurons. Furthermore, the model layer contains several model pools, which consist of the exciting pulsed neurons. With the model pools, the image in the intermediate layer can be controlled as a function of a context.
  • the neural network contains inhibitory pulsed neurons. Furthermore, the neuronal network contains an inhibiting pool, which consists of the inhibitory pulsed neurons. The inhibiting pool is interconnected with the model pools. Furthermore, the inhibiting pool can be activated by an incorrect feedback if an extracted output information is incorrect. According to one development of the invention, the neural network has the model layer in a first module and the other layers in a second module.
  • the input layer for each input information has an input pool, which consists of exciting pulsed neurons and can be activated by supplying the respective input information.
  • the intermediate layer has rule pools, by means of which an input information can be interconnected with an output information.
  • the rule pools consist of exciting pulsed neurons.
  • the output layer has an output pool consisting of exciting pulsed neurons.
  • the model pools are connected to the rule pools such that only a selection of rule pools can be activated depending on the activation of the model pools.
  • a representative input pool can be activated by an input data input, which represents the input information supplied.
  • a preferred rule pool can be activated by the representative input pool, which belongs to the selection of rule pools which are connected with an active model pool.
  • a representative output pool can be activated by the preferred rule pool, wherein the representative output pool represents a removable output information.
  • the neural network may further comprise one or more additional input layers, interlayers, output layers, model layers or other layers. These additional layers may store, filter, rate, network or categorize the input information, the output information or other information, or may perform other functions.
  • additional layers may store, filter, rate, network or categorize the input information, the output information or other information, or may perform other functions.
  • the invention describes a quantitative mathematical model with direct biological relevance, in that it specifically depicts the neurodynamic processes which were also recognized in biological research.
  • the behavior thus results as an autonomous, emergent phenomenon and has clear advantages over conventional agents with declarative Regel ⁇ representation on.
  • the invention permits not only the implicit rule representation but also dynamic rule selection, which also includes a random element.
  • the random element results from the emergent, free interaction of neurons and pools of the neural network.
  • FIG. 1 shows a first embodiment of the neural network
  • Fig. 2 shows a second embodiment of the neural network
  • Fig. 3 weights of a first module
  • Fig. 4 weights of a second module
  • Fig. 5 shows the structure of a pool.
  • FIG. 1 shows a neural network 1 with an input layer 10, an intermediate layer 20, an output layer 30 and a model layer 40.
  • the neural network 1 is supplied with input information 2 and later with an output information 3.
  • the input layer 10 has strong connections to the intermediate layer 20, which in turn has strong connections to the exit layer 30.
  • the model layer 40 has strong connections to the intermediate layer 20.
  • a strong connection between two layers means that the layers have an above-average number of compounds or that the compounds are markedly above average.
  • the connections are usually made via synapses, which connect neurons of one layer with neurons of the other layer.
  • a strong connection of two layers thus means that there are particularly many synaptic connections between the layers or that the synaptic connections are particularly pronounced.
  • the synaptic strength can be described by a weight w. Higher values for a synaptic weight w mean a stronger synaptic connection between the participating neurons.
  • the neurons of the neural network can be partially or completely linked in the layers and over the layers.
  • full connectivity full connectivity exists, meaning that each neuron is linked, linked or networked with each other neuron.
  • the layers are fed back together, that is, there are also strong connections in the opposite direction.
  • This feedback leads to a shift in the equilibrium in the competition of the individual neurons or groups (pools) of neurons.
  • the thickness of the forwardly directed compounds, ie from the input layer 10 via the intermediate layer 20 to the output layer 30 and from the model layer 40 to the intermediate layer 20, is expediently stronger than the strength of the backward-looking connections.
  • the intermediate layer 20 has stored for this purpose different images, one of which is activated by the model layer 40 in each case. As a result, a rapid response to context changes is possible since the mapping in the intermediate layer 20 can be flexibly changed.
  • the input layer 10, the intermediate layer 20, the output layer 30, and the model layer 40 contain groups (pools) of neurons. It is also possible that only some of these layers contain pools.
  • the pools of each layer may contain excitatory pulsed neurons. Exciting pulsed neurons are activated by pulses from other exciting pulsed neurons and send out pulses to other neurons themselves.
  • the activity of a pool of pulsed neurons can be modeled using a mean-field approximation.
  • the pools are attached to the biology of the human brain ange ⁇ .
  • large and homogeneous populations of neurons that receive a similar external input are mutually coupled, and probably together act as a single entity, forming groups (pools).
  • These pools can be a more robust processing and coding unit because their instantaneous population average response, as opposed to the time average of a relatively stochastic neuron in a large time window, is better suited to the analysis of fast changes in the real world. If one neuron can activate another one, this means that there is a strong connection between the two neurons. The same applies in the event that one pool activates another pool. This means that there is at least one strong connection of at least one neuron of the first pool with a neuron of the second pool.
  • FIG. 5 shows that the neurons 101 of a pool 100 are also strongly connected to one another. As shown in FIG. 5, there may be a partial connection, but also a complete networking of the neurons 101 of the pool 100.
  • the neurons 101 of the pool 100 are linked via strong connections 102, thus contributing to the activation of the pool 100 in mutual support.
  • the greater the activity of the neurons 101 the greater the activity of the pool 100.
  • the activity of the neurons 101 can be described by mathematical models. Further information on the mathematical modeling of pools in the development of neural networks as well as different mathematical models for pulsed neurons, as used in the exemplary embodiments are u. a. from the writings [2], [3] and [4] known.
  • neurons 101 are always artificial neurons 101. These partially or completely model a particular type of neuron known from biology. The modeling can be done by an electronic circuit or a mathematical model. gen, which is calculated by a data processing system. By connecting two pools 100, it is meant that the neurons 101 of these pools 100 are strongly or weakly connected to one another, ie that, for example, B. many or few, strong or weak synaptic connections between the
  • Neurons of the one and the neurons 101 of the other pool 100 exist.
  • the strong connections 102 between the neurons 101 of the pool 100 serve for the self-amplification of the pool 100.
  • the strength of these strong connections 102 corresponds to z.
  • the synaptic strengths between the neurons 101 which are referred to within the pool 100 as recurrent weights.
  • the neural network 1 stores a model for each context, ie for each class of situations.
  • the model indicates how the input information should be mapped to the output information.
  • the model thus describes which behavior is correct in a particular situation. Different situations may require different behavior. This is always the case when the context changes from one situation to the next. This means that in the second situation different output information must be selected than in the first situation. Different situations can therefore be based on a different context.
  • the neural network 1 now attempts to specify, for each context, for each class of situations, how the input information is to be mapped to the output information.
  • the intermediate layer 20 contains rule pools 21 which compete with each other, whereby only one activated rule pool 23 can enforce itself.
  • the rule pools 21 each represent a possibility of interconnection of an input information with an output information.
  • the input control information 2 is interconnected with the output information 3 to be extracted by the activated rule pool 23.
  • This interconnection consists of strong connections between neurons of the input layer 10, neurons of the control pool 23 and neurons of the output layer 30. Interconnection thus means that neurons, pools or layers are not only linked to one another, which is already present in a full interconnection, but instead that the weights of the links are strong.
  • the model layer 40 contains model pools 41 that compete with each other, whereby only one active model pool 42 can prevail.
  • the active model pool 42 is interconnected with a selection 22 of rule pools 21. This means that the rule pools 21 in the selection 22 are supported in their competition with the other rule pools 21 as long as the active model pool 42 is activated.
  • the active model pool 42 thus determines which
  • Rule pools 21 can be activated, and thus, how the zu ⁇ guided input information 2 is mapped to the output information 3 to be taken. Which rule pool 21 is activated in the selection 22 depends on the supplied input information 2. Which output information 3 is taken depends on the activated rule pool 23.
  • the neuronal network 1 contains an inhibiting pool 50, which is formed from inhibitory, pulsed neurons.
  • the inhibiting pool 50 is connected to the model layer 40 and exerts a global inhibition on the competing pools 41. This is necessary so that only one active model pool 42 can prevail in the competition.
  • the inhibiting pool 50 is stimulated here by the model pools 41.
  • excitatory compounds eg. For example, strong, excitatory, synaptic connections.
  • inhibitory compounds eg. B. inhibitory, synaptic connections.
  • the inhibiting pool 50 is also strongly connected to the other layers or there are one or more inhibiting pools which are interconnected with the other layers, d. H. have an inhibiting influence on them.
  • the neural network 1 must be informed that its current map or model does not correspond to the current situation or context.
  • the inhibiting pool 50 is activated by a false feedback 4, whereby the global inhibition becomes complete
  • the false feedback 4 can z. B. be implemented by activating the neurons of the inhibitory pool 50 via the external synaptic inputs.
  • synapses of the exciting, pulsed neurons of the active model pool 42 are adapted such that the self-amplification of the active model pool 42 decreases over time .
  • the recurring weights of the active model pool 42 are also reduced.
  • STD short-term synaptic depression
  • the input layer 10 also has input pools 11 which compete with each other, whereby only one input pool 11 can ever prevail in the competition.
  • each input information can be assigned its own input pool 11. It However, preprocessing may also take place, so that from the input information certain features are extracted, which are subsequently represented by an input pool 11. Thus, an input pool 11 for angular shapes and another input pool for round shapes can be activated.
  • the output layer 30 also has output pools 31 which compete with one another, whereby again only one output pool 31 can prevail in the competition.
  • FIG. 1 shows the case that an active model pool 42 supports a selection 22 of rule pools 21. Furthermore, a representative input pool 12 is activated by the supplied input information 2. This activates the activated rule pool 23 within the selection 22. This in turn is interconnected with a representative output pool 32, for which reason it is activated. Subsequently, the output information 3 is taken, which is represented by the representative output pool 32.
  • the layers are excited by at least one non-specific pool, which consists of exciting pulsed neurons.
  • This device does not receive any specific inputs from one of the layers and contributes with spontaneous pulses to the formation of realistic pulse distributions.
  • the neurons of the non-specific pool are not correlated with the other layers or pools, i. H. they are not specifically activatable, as they may be networked with the other layers / pools, but not with strong connections.
  • the neural network 1 can be designed as an attractor-recurrent autoassociative neural network. Such networks are described in the cited documents. In this case, the synaptic connections from the input layer 10 to the intermediate layer 20, from the intermediate layer 20 to the output layer 30, and from the model layer 40 to the intermediate layer 20, respectively, are made stronger than in the return direction.
  • the weight between two exciting pulsed neurons, which lie in different exciting pools of the same layer, is preferably weak.
  • each rule pool 21 is connected to an input pool 11, a model pool 41, and an output pool 31 as if the connection were through
  • the interplay between the layers corresponds to the multi-area interconnection in the human brain.
  • the neural network 1 can also have further layers. These additional layers can form the functions of specific brain areas. In this way, the functionality of the neuronal network 1 can be considerably expanded. It is conceivable z. As the filtering of input information by modeling ei ⁇ ner selective attention, as well as the implementation of work or long-term memory functions.
  • the further layers can be constructed in the manner described and interact with one another, or else implement other known methods.
  • the neural network 1 can be designed as a neurodynamic network, in particular in the form of a neurodynamic network of pulsed neurons. This may include the use of known neural networks, multilayer
  • Perceptrons, SOMs (seif organizing maps) etc. include.
  • the pulsed neurons can z. B. be formed as so-called spiking or as so-called pulse-coding neurons.
  • Intelligent agents which use the method according to the invention or the neural network can be used for neurocognitive process control, in particular for technical processes, for neurocognitive driver assistance and for neurocognitive robot control.
  • the invention is based on the principle of influenced competition (Biased Competition).
  • an active model which is formed by the active model pool 42 and by the interconnections of the rule pools 21 which belong to the selection 22, acts on the mapping of input information to output information in a top-down manner.
  • the input information acts as an opposing influence (bottom-up), which activates certain neurons and pools.
  • the actual interconnection of the supplied input information 2 with the extracted output information 3 develops from an interplay of these two influences.
  • the neural network 1 thus achieves a high degree of flexibility, which in its behavior, ie. H. in its mapping of input information to output information flexible to context changes, d. H. changed situations, can react.
  • the neural network 1 directly depicts the neurodynamic processes in the human brain, it is of direct biological relevance. This is based on the exact simulation of the biological processes in the brain.
  • the pulsed neurons may be integrated-and-firing neurons
  • the neural network and method according to the invention can be used as a model for clinical trial results.
  • experiments are conducted with a subject to examine behavior in situations of changing context.
  • the method according to the invention with a neural network becomes the same Test conditions carried out.
  • hypotheses about the functioning of the brain can be checked directly.
  • modified chemical conditions eg. As metabolic disorders or ver ⁇ changed concentrations of neurotransmitters, be taken into account.
  • the behavior for example of a schizophrenic patient, can be simulated by the method according to the invention. From the results and the comparison with test results with schizophrenic patients, hypotheses concerning the nature of the disorder in the brain can be checked again. The same applies to other disorders.
  • An intelligent agent which implements the method according to the invention or the neural network according to the invention can be used in an extremely versatile manner.
  • an agent could be used for chart analysis.
  • an attempt is made to conclude from the history of a stock price on its future development.
  • the neural network 1 is fed as input information 2, for example, the price history of a share during the last six months.
  • the extracted output information 3 now represents a purchase or sales recommendation. If the recommendation turns out to be false, the neural network 1 receives a false feedback 4. In this way, the neural network 1 can react flexibly to context changes, for example, when the mood on the stock exchange changes.
  • the next input information input 2 e.g.
  • the neural network 1 can already take into account the changed mood on the stock market, ie the changed context.
  • the invention is particularly suitable for complex connections that can not be detected by a declarative rule model. These include developments on the stock markets or the weather forecast.
  • the neural network 1 is figuratively in a position to make a gut decision. This is because / that the extracted output information 2 can also be interpreted as a feeling. The feeling is based on an intuitive interpretation of the input information, whereby intuitively means that the input information is mapped to the output information by implicit, not explicitly represented rules. In this context, the extracted output information 3 gives as feeling a general direction of trade.
  • Intelligent agents with flexible, human-like behavior can also be used elsewhere, for example as characters in training simulations and computer games.
  • the invention relates inter alia to the field of cognitive flexibility and behavioral change.
  • the dynamic reinforcement (Dynamic Reinforcement) supports the Ler ⁇ nen.
  • the neuronal network 1 as an image in the intermediate layer 20 forms associations between input information and a reward or punishment. Due to the interplay with the model layer 40, these associations can already be reversed after a false feedback 4.
  • the false feedback 4 always follows when a reward expectation has been taken as output information 3 and this does not occur or punishment occurs.
  • the false-feedback 4 can also take place when it is taken as output information 3 that the neural network 1 expects a punishment, but this fails or a reward occurs. In this way, the neural network 1 learns when to reward, and when to expect punishment, and responds with a feeling as output information 3 to be extracted, representing this maintenance, and from which an appropriate action can be derived ,
  • FIG. 2 shows a specific embodiment of the invention.
  • the neural network 1 is here divided into a first module 5 and a second module 6.
  • the second module 6 is a
  • the first module 5 has a model layer 40.
  • the second module 6 has an input layer 10, an intermediate layer 20 and an output layer 30.
  • the input layer 10 includes two input pools 15 and 16 which compete with each other. If a first object is supplied, the input pool 15 is activated. If a second object is supplied, the input pool 16 is activated.
  • the intermediate layer 20 has a selection 22 and a selection 24 of rule pools.
  • the selection 22 contains rule pools 25 and 26, the selection 24 contains rule pools 27 and 28.
  • the output layer 30 contains output pools 35 and 36.
  • the model layer 40 contains model pools 45 and 46. Within each tier, the pools compete with each other.
  • the competition in the model layer 40 is supported by an inhibiting pool 50, which consists of inhibitory neurons, and can be additionally excited by the false feedback 4.
  • the competition in the layers of the second module 6 is aided by an inhibiting pool 60 which is connected to these layers and exerts a global inhibition on the contained neurons.
  • the first module 5 is assigned a non-specific pool 70 whose activity is not influenced by the layers of the two modules.
  • the module 6 contains a non-specific pool 80 whose activity is not affected by the layers.
  • the non-specific pools 80 and 70 contribute with spontaneous pulses to the formation of realistic pulse distributions.
  • the second module 6 is implemented with 1600 pulsed neurons (here pyramidal cells) and 400 inhibiting pulsed neurons.
  • the first module 5 can be implemented with 1000 exciting pulsed neurons and 200 inhibitory neurons. These numbers are only an example.
  • the ratio of excitatory pyramidal cells to inhibitory neurons may be e. B. 80:20 amount.
  • all neurons are fully interconnected.
  • the pools can z. B. from 80 or 100 neurons are formed.
  • all the pools of the first module including the inhibiting pool 50 and the non-specific pool 70 are networked with each other. Furthermore, all the pools of the second module 6, including the enclosing pool 60 and the non-specific pool 80, are networked with one another.
  • the networking of the pools takes place via synaptic connections between the neurons contained in the pools.
  • the strength of the synaptic connections between the individual pools for the first module is shown by way of example in FIG.
  • FIG. 4 shows examples of synaptic strengths of the connections between the pools of the second module, including the inhibiting pool 60 and the non-specific pool 80
  • the input pool 15 is interconnected by the rule pool 25 of the selection 22 with the output pool 35.
  • the input pool 16 is connected to the output pool 36 via the rule pool 26 of the selection 22.
  • the interconnection of the input pools 15 and 16 with the output pools 35 and 36 takes place via the control pools 27 and 28 of the selection 24 exactly opposite.
  • the selection 22 and the selection 24 provide two different maps of input information to output information. Which of the two images is used depends on which of the two model pools 45 and 46 is activated.
  • the output pool 35 and the output pool 36 may each represent a situation score (eg, positive / negative), a decision (eg, buy / sell), or an action (eg, go forward / backward).
  • a situation score eg, positive / negative
  • a decision eg, buy / sell
  • an action eg, go forward / backward
  • the supplied input information 2 is transmitted to all neurons of the neural network 1, for example via in each case 800 connections from outside the network Network supplied.
  • background noise can also be supplied via these connections, which represents a spontaneous firing of neurons outside the network.
  • the states in which the neural network 1 can stabilize can also be referred to as global attractors. These are each composed of individual attractors for each pool. When a pool wins in the competition, the activity in that layer converges to the attractor concerned.
  • the global attractor is thus composed of a combination of activated pools in the input layer 10, in the intermediate layer 20, in the output layer 30 and in the model layer 40.
  • the optional recurrent connections between the layers give rise to controlled competition in one, several or all layers. This leads to an autonomous, emergent and highly flexible behavior of the neural network 1.
  • the course of a stock price during the last six months is fed as input information 2.
  • the input pool 15 is activated.
  • the model pool 45 is activated. He represents a model that assumes a positive mood on the stock exchange.
  • the model pool 45 controls the competition in the intermediate layer 20 in such a way that the pools 22 in the selection 22 can compete in the competition.
  • the rule pool 25 is activated, which is strongly connected to the input pool 15.
  • the rule pool 25 in turn activates the output pool 35 via a strong connection, which represents the output information "buy share", which is taken from the neural network as output information 3.
  • model pool 45 While model pool 45 is active, its self-boosting is depleted, that is, the synaptic weights of the model pool 45's internal connections decrease over time.
  • the inhibitory pool 50 is activated via a false feedback. This then amplifies its global inhibition to a complete inhibition of the model pools 45 and 46, which can also extend to the second module 6.
  • the formerly active model pool 45 is in competition with the model pool 46, since the self-amplification of the model pool 45 has exhausted itself compared to the self-boosting of the model pool 46. Therefore now the model pool 46 wins in the competition.
  • the model pool 46 now supports the selection 24 in the intermediate layer 20.
  • the input pool 15 is again activated. This now activates the rule pool 27, since this belongs to the selection 24, which is supported by the model pool 46.
  • the rule pool 27 in turn activates the output pool 36. This represents the output information "Do not buy stock", which is subsequently taken as output information 3.
  • the neural network 1 has thus adapted its behavior in one step to the changed context, for example a change in mood on the stock market.
  • Suitable values for the synaptic starches may deviate from the stated values and can be determined or optimized in the experiment. The general procedure for this is described in the document [2].
  • the readout of the output information 3 can also be realized differently. For example, it is conceivable that this takes place from each layer or from the respective pools.
  • Different input layers 10 could represent different features (color, shape, size, location, motion, etc.) of the input information.
  • Different model layers 40 could have different aspects of a model (different dimensions of a model)
  • a model layer 40 could store whether the player is practiced or untrained, as well as another which strategy the player is currently following.
  • the model could represent a context that is composed of different aspects.
  • Different issue stories 30 could represent different aspects of issue information (e.g., buy / sell, urgency, security of recommendation).
  • the intermediate layer 20 could also be implemented in multiple layers. In any case, it would have the task of networking the additional layers in a meaningful way.
  • Competition Within a shift certain characteristics or feature groups compete with each other for representation. This produces a weighting map (salicency map) as an emergent process, so that certain features are more intensely represented than others. A context-dependent information selection is obtained. This can be implemented by competing pools.
  • Features can also be linked dynamically to feature groups or categories.
  • One feature may also favor the representation of another feature. This can be implemented by pools that are connected to each other with strong weights and thus ter racen. For example, several pools can be activated simultaneously in the input layer 10 and thereby simultaneously represent several properties of an input information.
  • Additional layers can be implemented according to the principle of influenced competition and biased competition and cooperation: Through the connection between layers, a layer can direct the competition process in one or more other layers. This process can be recurrent, so that successively and dynamically an ever better matching of different feature spaces of the different layers arises with each other through this mutual steering process. In particular, because it covers only a partial aspect of the environment, each representation inevitably contains ambiguities. Influenced competition represents a mechanism by which the various layers can resolve ambiguities in the respective other feature spaces by the information of their particular feature space. Each representation evolves before the context of all other representations. Cooperation can then bind different characteristics to groupings, that is, relate them to one another.
  • Dynamic data from technical systems can be fed into the neural network 1 as input information after pre-processing, if necessary for dimensional reduction.
  • This can extract various features (eg Independent Composites).
  • Optimization of the neural network can be achieved by biologically motivated learning rules (eg Hebb rule or spike time dependent plasticity) with which cost functions can also be set up to evaluate how well a dynamic task is solved.

Abstract

Disclosed is a method for reacting to changes in context by means of a neural network (1). According to said method, input data is fed to an input layer (10) of the neural network (1) while output data is retrieved from an output layer (30) of the neural network (1). Several models which predefine one respective copy of the input data to the output data are stored in the neural network (1), only one model being active at the same time. The following steps are then repeated: the neural network (1) copies a piece of fed input data (2) to a piece of output data (3). Said piece of output data (3) is then retrieved from the output layer (30). If the retrieved piece of output data (3) is incorrect in a current context for the fed piece of data (2), the neural network (1) receives an error feedback message (4), whereupon the neural network (1) activates another model.

Description

Beschreibungdescription
Verfahren zur Reaktion auf Kontextänderungen mit einem neuro¬ nalen Netz und neuronales Netz zur Reaktion auf Kontextände- rungenA method of responding to contextual changes with a neuronal network and neural network to respond to contextual changes
Die Erfindung betrifft ein Verfahren zur Reaktion auf Kon¬ textänderungen mit einem neuronalen Netz,' sowie ein neurona¬ les Netz, welches auf Kontextänderungen reagieren kann.The invention relates to a method for responding to text changes with a neural network, as well as a neuronal network, which can respond to context changes.
Unter Kontext wird ein äußerer Sinnzusammenhang verstanden, welcher angibt, welches Verhalten in einer bestimmten Situa¬ tion sinnvoll ist.Context is understood to be an external meaning context which indicates which behavior makes sense in a particular situation.
Bei einem Aktienkurs könnte der Kontext angeben, ob der Kurs steigt oder fällt, und abhängig von diesem Kontext wäre es eine sinnvolle Entscheidung, die Aktie zu kaufen oder zu ver¬ kaufen. Der Kontext kann auch angeben, dass ein Wetterum¬ schwung bevorsteht, und abhängig von diesem Wetterumschwung wäre eine positive oder negative Wettervorhersage sinnvoll. Der Kontext kann weiterhin auch eine veränderliche Strategie eines Spielers eines Computerspieles sein, und abhängig von dieser Strategie kann ein bestimmtes Verhalten einer Figur in dem Computerspiel sinnvoll sein (z.B. Angriff oder Verteidi- gung) .For a stock price, the context could indicate whether the price is going up or down, and depending on that context, it would be a wise decision to buy or sell the stock. The context may also indicate that a change in the weather is imminent, and depending on this change in the weather, a positive or negative weather forecast would make sense. The context may also be a variable strategy of a player of a computer game, and depending on this strategy, a particular behavior of a character may be useful in the computer game (e.g., attack or defense).
Die Erfindung betrifft also eine Methode der Datenverarbei¬ tung, um für eine vorgegebene Situation ein richtiges Verhal¬ ten zu finden. Als Verhalten wird hierbei bereits die Ein- Schätzung der Situation verstanden, das Verhalten kann aber auch eine Entscheidung oder eine Handlung umfassen.The invention thus relates to a method of data processing in order to find a correct behavior for a given situation. Behavior is already understood here as the estimation of the situation, but the behavior can also include a decision or an action.
Bekannt sind intelligente Software-Agenten, welche mit Metho¬ den der künstlichen Intelligenz entwickelt werden. Es handelt sich hierbei um regelbasierte Systeme, welche eine Datenbasis mit Regeln besitzen sowie eine Logik zur Abarbeitung der Re¬ geln. Die Regeln sind hierbei explizit formuliert und müssen durch den Entwickler manuell eingegeben werden. Es handelt sich hierbei um ein deklaratives Programmiermodell. Ein Bei¬ spiel für solche intelligenten Agenten sind BDI-Agenten (Be- lieve-Desire-Intention) . Diese erfassen sensorisch Daten, verarbeiten diese mit einer Menge von Regeln und wählen ein Verhalten.Intelligent software agents are known which are developed using methods of artificial intelligence. These are rule-based systems which have a database with rules and a logic for processing the rules. The rules are explicitly formulated and must be manually entered by the developer. It is a declarative programming model. An example of such intelligent agents are BDI agents (lieve-desire-intention). These collect sensory data, process it with a set of rules and choose a behavior.
Eine bekannte Weiterbildung ist die Implementation einer Fuz- zy-Logik, die jedoch auch eine explizite Regelformulierung benötigt. In der Psychologie sind weitere Modelle für das menschliche Verhalten bekannt, die ebenfalls auf expliziten Regeln beruhen.A known development is the implementation of a fuzzy logic, which, however, also requires an explicit rule formulation. In psychology, other models of human behavior are known, which are also based on explicit rules.
Gegenstand der Erfindung ist auch das dynamische Verstär- kungslernen (dynamic reinforcement learning) , bei dem ein System oder Agent Rückmeldungen zu seinem Verhalten erhält, welche dazu dienen, ihm die flexible Reaktion auf Kontextän¬ derungen zu ermöglichen. Wenn das System oder der Agent z. B. eine Kaufen-Entscheidung trifft und der Aktienkurs anschlie- ßend fällt, so kann das System oder der Agent durch entspre¬ chende Rückmeldung lernen, und in der nächsten Situation ein richtigeres Verhalten wählen. Unter Verhalten wird eine Ent¬ scheidung, eine Situationsbewertung oder eine Handlung ver¬ standen. Die Bewertung einer Situation kann auch als Gefühl bezeichnet werden. Das dynamische Verstärkungslernen ist in der Schrift [1] beschrieben.The invention also relates to dynamic reinforcement learning, in which a system or agent receives feedback on its behavior, which serve to enable it to flexibly respond to context changes. If the system or the agent z. If, for example, a buy decision is made and the share price subsequently falls, the system or the agent can learn by means of appropriate feedback and choose a more correct behavior in the next situation. Behavior is a decision, a situation assessment or an action ver¬ stood. The evaluation of a situation can also be called a feeling. Dynamic gain learning is described in document [1].
Als lernende Systeme sind insbesondere neuronale Netze be¬ kannt. Einem solchen neuronalen Netz werden Informationen ü- ber die gegenwärtige Situation in Form von Eingabeinformatio¬ nen zugeführt. Die Eingabeinformationen werden durch das neu¬ ronale Netz verarbeitet. Anschließend können dem neuronalen Netz Ausgabeinformationen entnommen werden. Die Ausgabeinfor¬ mationen beschreiben das Verhalten des neuronalen Netzes und stellen somit eine Entscheidung, eine Situationsbewertung o- der eine Handlungsanweisung dar. Ein neuronales Netz kann trainiert werden, so dass es lernt, welche Ausgabeinformation für eine gegebene Eingabeinformation richtig ist. Dies wird als synaptisches Lernen bezeichnet. Mit Synapsen werden die Verbindungen zwischen den einzelnen Neuronen, den Elementen des neuronalen Netzes, bezeichnet. Durch Ausprägung der sy- naptischen Stärken erlernt das neuronale Netz in diesem Zu¬ sammenhang die richtige Abbildung von Eingabeinformationen auf Ausgabeinformationen.Neural networks are known in particular as learning systems. Information about the current situation in the form of input information is fed to such a neural network. The input information is processed by the neural network. Subsequently, output information can be taken from the neural network. The output information describes the behavior of the neural network and thus represents a decision, a situation evaluation or an action instruction. A neural network can be trained so that it learns which output information is correct for a given input information. This is called synaptic learning. Synapses are the connections between the individual neurons, the elements of the neural network. By expressing the synaptic strengths, the neural network learns in this context the correct mapping of input information to output information.
Der Vorteil neuronaler Netze liegt darin, dass die Regeln zur Abbildung der Eingabeinformationen auf Ausgabeinformationen nicht explizit und deklarativ vorgegeben werden müssen. Viel¬ mehr erlernt das neuronale Netz eine implizite Regel- Repräsentation aus den Daten, mit welchen es trainiert wird. Nachteilig wirkt sich hierbei jedoch aus, dass das neuronale Netz nicht flexibel auf Kontextänderungen reagieren kann. Ei¬ ne Kontextänderung, also eine Änderung des äußeren Sinnzusam¬ menhangs, stellt die Anforderung an das neuronale Netz, die Abbildung von Eingabeinformationen auf Ausgabeinformationen mit sofortiger Wirkung umzustellen. Bei dem synaptischen Ler- nen handelt es sich jedoch um einen inkrementellen, zeitver¬ zögerten Prozess, welcher keine flexible und schnelle Reakti¬ on auf Kontextänderungen ermöglicht.The advantage of neural networks lies in the fact that the rules for mapping the input information to output information do not have to be specified explicitly and declaratively. Rather, the neural network learns an implicit rule representation from the data with which it is trained. The disadvantage here, however, is that the neural network can not react flexibly to context changes. A change in context, that is to say a change in the external context of meaning, constitutes the requirement for the neural network to convert the mapping of input information to output information with immediate effect. However, synaptic learning is an incremental, time-delayed process which does not allow a flexible and rapid response to context changes.
Somit stellt sich die Aufgabe, ein Verfahren zur Reaktion auf Kontextänderungen sowie eine Datenverarbeitungseinheit an¬ zugeben, welche auf Kontextänderungen reagieren kann.Thus, the task arises to indicate a method for the reaction to context changes and a data processing unit which can react to context changes.
Bei dem Verfahren zur Reaktion auf Kontextänderungen mit ei¬ nem neuronalen Netz werden einer Eingabeschicht des neurona- len Netzes Eingabeinformationen zugeführt. Weiterhin werden einer Ausgabeschicht des neuronalen Netzes Ausgabeinformatio¬ nen entnommen. Ferner sind in dem neuronalen Netz mehrere Mo¬ delle gespeichert, welche jeweils eine Abbildung der Eingabe¬ informationen auf die Ausgabeinformationen vorgeben. Hierbei kann jeweils nur ein Modell gleichzeitig aktiv sein. Es wer¬ den nun folgende Schritte wiederholt: Das neuronale Netz bil¬ det eine zugeführte Eingabeinformation mit dem aktiven Modell auf eine Ausgabeinformation ab. Diese wird anschließend der Ausgabeschicht entnommen. Wenn die entnommene Ausgabeinforma¬ tion für die zugeführte Eingabeinformation in einem aktuellen Kontext falsch ist, erhält das neuronale Netz eine Falsch- Rückmeldung, woraufhin das neuronale Netz ein anderes Modell aktiviert.In the method for responding to context changes with a neural network, input information is supplied to an input layer of the neural network. Furthermore, output information is taken from an output layer of the neural network. Furthermore, several models are stored in the neural network, each of which predefines a mapping of the input information onto the output information. Only one model can be active at the same time. The following steps are then repeated: The neural network forms an inputting information with the active model on an output information. This is then taken from the output layer. If the extracted output information for the supplied input information is incorrect in a current context, the neural network receives a false feedback, whereupon the neural network activates another model.
Vorzugsweise wird aus der entnommenen Ausgabeinformation eine Aktion abgeleitet und ausgeführt.Preferably, an action is derived and executed from the extracted output information.
In einer Weiterbildung enthält das neuronale Netz erregende gepulste Neuronen. Diese bilden Modellpools, wobei jedem Mo¬ dell mindestens ein Modellpool zugeordnet ist. Die Modell¬ pools konkurrieren miteinander, wobei sich ein aktiver Mo- dellpool in der Konkurrenz durchsetzt.In a further development, the neural network contains exciting pulsed neurons. These form model pools, with each model being assigned at least one model pool. The model pools compete with each other, whereby an active model pool prevails in the competition.
Gemäß einer Ausführungsform der Erfindung enthält das neuro¬ nale Netz hemmende gepulste Neuronen. Diese bilden mindestens einen hemmenden Pool. Der hemmende Pool übt eine globale Hem- mung auf die konkurrierenden Modellpools aus. Die Falsch- Rückmeldung aktiviert den hemmenden Pool. Der aktivierte hem¬ mende Pool führt eine vollständige Hemmung aller Modellpools durch. Die vollständige Hemmung deaktiviert daraufhin den ak¬ tiven Modellpool. Nach der vollständigen Hemmung wird ein an- derer Modellpool aktiviert.According to one embodiment of the invention, the neuronal network contains inhibiting pulsed neurons. These form at least one inhibitory pool. The inhibitory pool exerts a global inhibition on the competing model pools. The false feedback activates the inhibiting pool. The activated inhibiting pool performs a complete inhibition of all model pools. The complete inhibition then deactivates the active model pool. After complete inhibition, another model pool is activated.
Gemäß einer Weiterbildung der Erfindung adaptieren sich Sy¬ napsen der erregenden gepulsten Neuronen des aktiven Modell¬ pools. Dadurch sinken rekurrente Gewichte des aktiven Modell- pools ab. Dies führt dazu, dass der aktive Modellpool nach der vollständigen Hemmung in der Konkurrenz gegenüber den an¬ deren Modellpools unterliegt.According to a development of the invention, sys- tems adapt to the exciting pulsed neurons of the active model pool. As a result, recurrent weights of the active model pool decrease. This leads to the fact that the active model pool is subject to the complete inhibition in the competition compared to the other model pools.
Vorzugsweise wird die Adaption der Synapsen als kurzzeitige synaptische Depression (STD) implementiert. Gemäß einer Ausführungsform der Erfindung bilden erregende gepulste Neuronen Regelpools. Jeder dieser Regelpools ver¬ schaltet jeweils eine der Eingabeinformationen mit einer der Ausgabeinformationen. Die Regelpools treten miteinander in Konkurrenz, wobei der aktive Modellpool eine Auswahl von Re¬ gelpools unterstützt. Die zugeführte Eingabeinformation akti¬ viert einen Regelpool aus dieser Auswahl. Der entsprechend aktivierte Regelpool aktiviert die zu entnehmende Ausgabein¬ formation. Diese wird im Anschluss entnommen.Preferably, the adaptation of the synapses is implemented as short-term synaptic depression (STD). According to one embodiment of the invention, exciting pulsed neurons form rule pools. Each of these rule pools ver¬ switches each one of the input information with one of the output information. The rule pools compete with each other, with the active model pool supporting a selection of rule pools. The supplied input information activates a rule pool from this selection. The appropriately activated rule pool activates the output information to be taken. This will be taken out afterwards.
In einer besonderen Ausführungsform der Erfindung enthält das neuronale Netz Verschaltungen, welche durch Hebb'sches Lernen ausgebildet werden.In a particular embodiment of the invention, the neural network includes interconnections formed by Hebbian learning.
Das neuronale Netz zur Reaktion auf Kontextänderungen weist eine Eingabeschicht auf, der Eingabeinformationen zuführbar sind. Weiterhin ist eine Zwischenschicht vorhanden, durch die die Eingabeinformationen auf Ausgabeinformationen abbildbar sind. Weiterhin ist eine Ausgabeschicht vorhanden, an der die Ausgabeinformationen entnehmbar sind. Schließlich weist das neuronale Netz noch eine Modellschicht auf, mit der die Ab¬ bildung in der Zwischenschicht abhängig von einem Kontext steuerbar ist.The neural network for responding to context changes has an input layer to which input information can be supplied. Furthermore, there is an intermediate layer, by means of which the input information can be mapped onto output information. Furthermore, there is an output layer from which the output information can be taken. Finally, the neural network also has a model layer with which the image formation in the intermediate layer can be controlled as a function of a context.
Gemäß einer Weiterbildung enthält die Modellschicht erregende gepulste Neuronen. Weiterhin enthält die Modellschicht mehre¬ re Modellpools, welche aus den erregenden gepulsten Neuronen bestehen. Mit den Modellpools ist die Abbildung in der Zwi¬ schenschicht abhängig von einem Kontext steuerbar.According to a development, the model layer contains exciting pulsed neurons. Furthermore, the model layer contains several model pools, which consist of the exciting pulsed neurons. With the model pools, the image in the intermediate layer can be controlled as a function of a context.
Gemäß einer Weiterbildung der Erfindung enthält das neuronale Netz hemmende gepulste Neuronen. Weiterhin enthält das neuro¬ nale Netz einen hemmenden Pool, welcher aus den hemmenden ge¬ pulsten Neuronen besteht. Der hemmende Pool ist mit den Mo- dellpools verschaltet. Weiterhin ist der hemmende Pool durch eine Falsch-Rückmeldung aktivierbar, wenn eine entnommene Ausgabeinformation falsch ist. Gemäß einer Weiterbildung der Erfindung weist das neuronale Netz in einem ersten Modul die Modellschicht und in einem zweiten Modul die anderen Schichten auf.According to one embodiment of the invention, the neural network contains inhibitory pulsed neurons. Furthermore, the neuronal network contains an inhibiting pool, which consists of the inhibitory pulsed neurons. The inhibiting pool is interconnected with the model pools. Furthermore, the inhibiting pool can be activated by an incorrect feedback if an extracted output information is incorrect. According to one development of the invention, the neural network has the model layer in a first module and the other layers in a second module.
In einer besonderen Ausführungsform weist die EingabeSchicht für jede Eingabeinformation einen Eingabepool auf, welcher aus erregenden gepulsten Neuronen besteht und durch Zufuhr der jeweiligen Eingabeinformation aktivierbar ist. Weiterhin weist die Zwischenschicht Regelpools auf, durch welche je¬ weils eine Eingabeinformation mit einer Ausgabeinformation verschaltbar ist. Hierbei bestehen die Regelpools aus erre¬ genden gepulsten Neuronen. Ferner weist die AusgäbeSchicht für jede Ausgabeinformation einen Ausgabepool auf, welcher aus erregenden gepulsten Neuronen besteht. Weiterhin sind die Modellpools mit den Regelpools so verschaltet, dass abhängig von der Aktivierung der Modellpools nur eine Auswahl von Re¬ gelpools aktivierbar ist. Weiterhin ist durch eine zugeführte Eingabeinformation ein repräsentativer Eingabepool aktivier- bar, welcher die zugeführte Eingabeinformation repräsentiert. Ferner ist durch den repräsentativen Eingabepool ein bevor¬ zugter Regelpool aktivierbar, welcher zu der Auswahl von Re¬ gelpools gehört, welche mit einem aktiven Modellpool ver¬ schaltet sind. Schließlich ist durch den bevorzugten Regel- pool ein repräsentativer Ausgabepool aktivierbar, wobei der repräsentative Ausgabepool eine entnehmbare Ausgabeinformati¬ on repräsentiert.In a particular embodiment, the input layer for each input information has an input pool, which consists of exciting pulsed neurons and can be activated by supplying the respective input information. Furthermore, the intermediate layer has rule pools, by means of which an input information can be interconnected with an output information. In this case, the rule pools consist of exciting pulsed neurons. Further, for each output information, the output layer has an output pool consisting of exciting pulsed neurons. Furthermore, the model pools are connected to the rule pools such that only a selection of rule pools can be activated depending on the activation of the model pools. Furthermore, a representative input pool can be activated by an input data input, which represents the input information supplied. Furthermore, a preferred rule pool can be activated by the representative input pool, which belongs to the selection of rule pools which are connected with an active model pool. Finally, a representative output pool can be activated by the preferred rule pool, wherein the representative output pool represents a removable output information.
Das neuronales Netz kann weiterhin eine oder mehrere zusätz- liehe Eingabeschichten, Zwischenschichten, Ausgabeschichten, Modellschichten oder andere Schichten aufweisen. Diese zu¬ sätzlichen Schichten können die Eingabeinformationen, die Ausgabeinformationen oder andere Informationen speichern, filtern, bewerten, vernetzen oder kategorisieren oder andere Funktionen übernehmen. Der Vorteil des erfindungsgemäßen Verfahrens liegt darin, dass die Regeln für das Verhalten äußerst implizit repräsen¬ tiert sind und nicht explizit angegeben werden müssen. Wei¬ terhin ist es möglich, bereits nach einer einzigen Falsch- Rückmeldung die Abbildung von Eingabeinformationen auf Ausga¬ beinformationen zu wechseln. Dadurch erreicht das Verfahren eine große Schnelligkeit und Flexibilität bei der Reaktion auf Kontextänderungen, welche es gegenüber herkömmlichen neu¬ ronalen Netzen auszeichnet.The neural network may further comprise one or more additional input layers, interlayers, output layers, model layers or other layers. These additional layers may store, filter, rate, network or categorize the input information, the output information or other information, or may perform other functions. The advantage of the method according to the invention is that the rules for the behavior are extremely implicitly represented and do not have to be specified explicitly. Furthermore, it is possible to change the mapping of input information to output information even after a single false feedback. As a result, the method achieves great speed and flexibility in the response to context changes, which distinguishes it from conventional neural networks.
Weiterhin beschreibt die Erfindung ein quantitatives mathema¬ tisches Modell mit direkter biologischer Relevanz, indem es konkret die neurodynamischen Prozesse abbildet, welche auch in der biologischen Forschung erkannt wurden. Das Verhalten ergibt sich somit als autonomes, emergentes Phänomen und weist gegenüber herkömmlichen Agenten mit deklarativer Regel¬ repräsentation deutliche Vorteile auf.Furthermore, the invention describes a quantitative mathematical model with direct biological relevance, in that it specifically depicts the neurodynamic processes which were also recognized in biological research. The behavior thus results as an autonomous, emergent phenomenon and has clear advantages over conventional agents with declarative Regel¬ representation on.
Im Gegensatz zur deklarativen Regelformulierung bei herkömm- liehen BDI-Agenten erlaubt die Erfindung neben der impliziten Regelrepräsentation eine dynamische Regelselektion, welche auch ein Zufallselement mit einschließt. Das Zufallselement ergibt sich aus dem emergenten, freien Zusammenspiel der Neu¬ ronen und Pools des neuronalen Netzes.In contrast to the declarative rule formulation in conventional BDI agents, the invention permits not only the implicit rule representation but also dynamic rule selection, which also includes a random element. The random element results from the emergent, free interaction of neurons and pools of the neural network.
Im Folgenden wird die Erfindung anhand von Ausführungsbei¬ spielen näher erläutert, die in den Figuren schematisch dar¬ gestellt sind. Gleiche Bezugsziffern in den einzelnen Figuren bezeichnen dabei gleiche Elemente. Im Einzelnen zeigt:In the following, the invention will be explained in more detail by means of exemplary embodiments, which are illustrated schematically in the figures. The same reference numerals in the individual figures indicate the same elements. In detail shows:
Fig. 1 eine erste Ausführungsform des neuronalen Netzes; Fig. 2 eine zweite Ausführungsform des neuronalen Netzes; Fig. 3 Gewichte eines ersten Moduls; Fig. 4 Gewichte eines zweiten Moduls; Fig. 5 den Aufbau eines Pools. Figur 1 zeigt ein neuronales Netz 1 mit einer Eingabeschicht 10, einer Zwischenschicht 20, einer Ausgabeschicht 30 sowie einer Modellschicht 40. Dem neuronalen Netz 1 wird eine Ein¬ gabeinformation 2 zugeführt und später eine Ausgabeinformati- on 3 entnommen. Die Eingabeschicht 10 weist starke Verbindun¬ gen zur Zwischenschicht 20 auf, welche wiederum starke Ver¬ bindungen zur Ausgäbeschicht 30 aufweist. Die Modellschicht 40 weist starke Verbindungen zur Zwischenschicht 20 auf.Fig. 1 shows a first embodiment of the neural network; Fig. 2 shows a second embodiment of the neural network; Fig. 3 weights of a first module; Fig. 4 weights of a second module; Fig. 5 shows the structure of a pool. FIG. 1 shows a neural network 1 with an input layer 10, an intermediate layer 20, an output layer 30 and a model layer 40. The neural network 1 is supplied with input information 2 and later with an output information 3. The input layer 10 has strong connections to the intermediate layer 20, which in turn has strong connections to the exit layer 30. The model layer 40 has strong connections to the intermediate layer 20.
Mit einer starken Verbindung zwischen zwei Schichten ist ge¬ meint, dass die Schichten überdurchschnittlich viele Verbin¬ dungen aufweisen oder dass die Verbindungen überdurchschnitt¬ lich stark ausgeprägt sind. Die Verbindungen werden in der Regel über Synapsen hergestellt, welche Neuronen der einen Schicht mit Neuronen der anderen Schicht verbinden. Eine starke Verbindung zweier Schichten bedeutet somit, dass be¬ sonders viele synaptische Verbindungen zwischen den Schichten bestehen oder, dass die synaptischen Verbindungen besonders stark ausgeprägt sind. Die synaptische Stärke kann durch ein Gewicht w beschrieben werden. Höhere Werte für ein synapti¬ sches Gewicht w bedeuten eine stärkere synaptische Verbindung zwischen den beteiligten Neuronen.A strong connection between two layers means that the layers have an above-average number of compounds or that the compounds are markedly above average. The connections are usually made via synapses, which connect neurons of one layer with neurons of the other layer. A strong connection of two layers thus means that there are particularly many synaptic connections between the layers or that the synaptic connections are particularly pronounced. The synaptic strength can be described by a weight w. Higher values for a synaptic weight w mean a stronger synaptic connection between the participating neurons.
Die Neuronen des neuronalen Netzes können in den Schichten und über die Schichten hinweg teilweise oder vollständig ver¬ knüpft sein. Im Fall der vollständigen Verknüpfung liegt Vollvernetzung vor, das bedeutet, dass jedes Neuron mit jedem anderen Neuron verbunden, verknüpft bzw. vernetzt ist.The neurons of the neural network can be partially or completely linked in the layers and over the layers. In the case of full connectivity, full connectivity exists, meaning that each neuron is linked, linked or networked with each other neuron.
Gemäß einer Ausführungsform der Erfindung sind die Schichten miteinander rückgekoppelt, d. h. es existieren jeweils auch starke Verbindungen in umgekehrter Richtung. Diese Rückkoppe¬ lung führt zu einer Verschiebung des Gleichgewichts im Wett¬ bewerb der einzelnen Neuronen bzw. Gruppen (Pools) von Neuro- nen. Die Stärke der vorwärts gerichteten Verbindungen, also von der Eingabeschicht 10 über die Zwischenschicht 20 zur Ausga¬ beschicht 30 sowie von der Modellschicht 40 zur Zwischen¬ schicht 20, ist zweckmäßigerweise stärker ausgebildet als die Stärke der rückwärts gerichteten Verbindungen.According to one embodiment of the invention, the layers are fed back together, that is, there are also strong connections in the opposite direction. This feedback leads to a shift in the equilibrium in the competition of the individual neurons or groups (pools) of neurons. The thickness of the forwardly directed compounds, ie from the input layer 10 via the intermediate layer 20 to the output layer 30 and from the model layer 40 to the intermediate layer 20, is expediently stronger than the strength of the backward-looking connections.
Durch die Zwischenschicht 20 wird die zugeführte Eingabein- formation 2 auf die entnommene Ausgabeinformation 3 abgebil¬ det. Die Zwischenschicht 20 hat hierzu unterschiedliche Ab- bildungen gespeichert, von denen jeweils eine durch die Mo¬ dellschicht 40 aktiviert wird. Hierdurch ist eine schnelle Reaktion auf Kontextänderungen möglich, da die Abbildung in der Zwischenschicht 20 flexibel verändert werden kann.Through the intermediate layer 20, the supplied input information 2 is displayed on the extracted output information 3. The intermediate layer 20 has stored for this purpose different images, one of which is activated by the model layer 40 in each case. As a result, a rapid response to context changes is possible since the mapping in the intermediate layer 20 can be flexibly changed.
Gemäß einer Ausführungsform enthalten die Eingabeschicht 10, die Zwischenschicht 20, die AusgäbeSchicht 30, sowie die Mo¬ dellschicht 40 Gruppen (Pools) von Neuronen. Es ist auch mög¬ lich, dass nur einzelne dieser Schichten Pools enthalten. Die Pools der jeweiligen Schicht können erregende gepulste Neuro- nen enthalten. Erregende gepulste Neuronen werden durch Pulse anderer erregender gepulster Neuronen aktiviert und senden selbst Pulse an weitere Neuronen aus. Die Aktivität eines Pools von gepulsten Neuronen kann unter Verwendung einer Mean-Field-Näherung modelliert werden.According to one embodiment, the input layer 10, the intermediate layer 20, the output layer 30, and the model layer 40 contain groups (pools) of neurons. It is also possible that only some of these layers contain pools. The pools of each layer may contain excitatory pulsed neurons. Exciting pulsed neurons are activated by pulses from other exciting pulsed neurons and send out pulses to other neurons themselves. The activity of a pool of pulsed neurons can be modeled using a mean-field approximation.
Die Pools sind an der Biologie des menschlichen Gehirns ange¬ lehnt. Im menschlichen Gehirn bilden große und homogene Popu- lationen von Neuronen, die eine ähnliche externe Eingabe emp¬ fangen, gegenseitig verkoppelt sind und wahrscheinlich zusam- men als eine Einheit fungieren, Gruppen (Pools) . Diese Pools können eine robustere Verarbeitungs- und Codierungseinheit bilden, weil ihre momentane Populations-Mittelwertanwort, im Gegensatz zum zeitlichen Mittel eines relativ stochastischen Neurons in einem großen Zeitfenster, besser an die Analyse von schnellen Wechseln in der realen Welt angepasst ist. Wenn ein Neuron ein anderes aktivieren kann, so bedeutet dies, dass eine starke Verbindung zwischen den beiden Neuro¬ nen besteht. Gleiches gilt für den Fall, dass ein Pool einen anderen Pool aktiviert. Dies bedeutet, dass mindestens eine starke Verbindung mindestens eines Neurons des ersten Pools mit einem Neuron des zweiten Pools vorliegt.The pools are attached to the biology of the human brain ange¬. In the human brain, large and homogeneous populations of neurons that receive a similar external input, are mutually coupled, and probably together act as a single entity, forming groups (pools). These pools can be a more robust processing and coding unit because their instantaneous population average response, as opposed to the time average of a relatively stochastic neuron in a large time window, is better suited to the analysis of fast changes in the real world. If one neuron can activate another one, this means that there is a strong connection between the two neurons. The same applies in the event that one pool activates another pool. This means that there is at least one strong connection of at least one neuron of the first pool with a neuron of the second pool.
Figur 5 zeigt, dass auch die Neuronen 101 eines Pools 100 miteinander stark verbunden sind. Es kann, wie in Figur 5 ge- zeigt, eine teilweise Verknüpfung, aber auch eine vollständi¬ ge Vernetzung der Neuronen 101 des Pools 100 vorliegen. Die Neuronen 101 des Pools 100 sind über starke Verbindungen 102 verknüpft, tragen also in gegenseitiger Unterstützung zur Ak¬ tivierung des Pools 100 bei. Je größer die Aktivität der Neu- ronen 101 ist, desto größer ist die Aktivität des Pools 100.FIG. 5 shows that the neurons 101 of a pool 100 are also strongly connected to one another. As shown in FIG. 5, there may be a partial connection, but also a complete networking of the neurons 101 of the pool 100. The neurons 101 of the pool 100 are linked via strong connections 102, thus contributing to the activation of the pool 100 in mutual support. The greater the activity of the neurons 101, the greater the activity of the pool 100.
Die Aktivität der Neuronen 101 kann durch mathematische Mo¬ delle beschrieben werden. Weitere Informationen zu der mathe¬ matischen Modellierung von Pools bei der Entwicklung neurona- ler Netze sowie unterschiedliche mathematische Modelle für gepulste Neuronen, wie sie im Rahmen der Ausführungsbeispiele zum Einsatz kommen, sind u. a. aus den Schriften [2], [3] und [4] bekannt.The activity of the neurons 101 can be described by mathematical models. Further information on the mathematical modeling of pools in the development of neural networks as well as different mathematical models for pulsed neurons, as used in the exemplary embodiments are u. a. from the writings [2], [3] and [4] known.
Wenn mehrere Pools 100 in einer Schicht in Konkurrenz treten, so bedeutet dies, dass die Verbindungen zwischen den Pools 100 in der Schicht schwach ausgeführt sind. Dies bedeutet, dass sich die Pools 100 in einer Schicht nicht gegenseitig unterstützen. Wenn die Pools 100 nun auch noch einer globalen Hemmung unterliegen, so wird sich in der Konkurrenz nur ein Pool 100 mit der größten Aktivität durchsetzen können.If multiple pools 100 compete in a layer, it means that the connections between the pools 100 in the layer are weak. This means that the pools 100 in one shift do not support each other. If the pools 100 are now also subject to a global inhibition, only one pool 100 with the greatest activity will be able to prevail in the competition.
Mit Neuronen 101 sind im Rahmen der Erfindung immer künstli¬ che Neuronen 101 gemeint. Diese modellieren teilweise oder vollständig jeweils einen bestimmten Typ eines aus der Biolo¬ gie bekannten Neurons. Die Modellierung kann durch eine e- lektronische Schaltung oder ein mathematisches Modell erfol- gen, welches durch eine Datenverarbeitungsanlage berechnet wird. Mit einer Verbindung zweier Pools 100 ist gemeint, dass die Neuronen 101 dieser Pools 100 stark oder schwach mitein¬ ander verbunden sind, d. h. dass z. B. viele oder wenige, starke oder schwache synaptische Verbindungen zwischen denIn the context of the invention, neurons 101 are always artificial neurons 101. These partially or completely model a particular type of neuron known from biology. The modeling can be done by an electronic circuit or a mathematical model. gen, which is calculated by a data processing system. By connecting two pools 100, it is meant that the neurons 101 of these pools 100 are strongly or weakly connected to one another, ie that, for example, B. many or few, strong or weak synaptic connections between the
Neuronen des einen und den Neuronen 101 des anderen Pools 100 existieren.Neurons of the one and the neurons 101 of the other pool 100 exist.
Die in Figur 5 gezeigten starken Verbindungen 102 zwischen den Neuronen 101 des Pools 100 dienen der Selbstverstärkung des Pools 100. Die Stärke dieser starken Verbindungen 102 entspricht z. B. den synaptischen Stärken zwischen den Neuro¬ nen 101, welche innerhalb des Pools 100 als rekurrente Ge¬ wichte bezeichnet werden.The strong connections 102 between the neurons 101 of the pool 100, shown in FIG. 5, serve for the self-amplification of the pool 100. The strength of these strong connections 102 corresponds to z. For example, the synaptic strengths between the neurons 101, which are referred to within the pool 100 as recurrent weights.
Erfindungsgemäß speichert das neuronale Netz 1 für jeden Kon¬ text, also für jede Klasse von Situationen, ein Modell. Das Modell gibt jeweils an, wie die Eingabeinformationen auf die Ausgabeinformationen abgebildet werden sollen. Das Modell be- schreibt somit, welches Verhalten in einer bestimmten Situa¬ tion richtig ist. Unterschiedliche Situationen können unter¬ schiedliches Verhalten erfordern. Dies ist immer dann der Fall, wenn sich von einer Situation auf die nächste der Kon¬ text ändert. Dies bedeutet, dass in der zweiten Situation an- dere Ausgabeinformationen gewählt werden müssen als in der ersten Situation. Unterschiedlichen Situationen kann somit ein unterschiedlicher Kontext zugrunde liegen. Mit den Model¬ len versucht das neuronale Netz 1 nun, für jeden Kontext, al¬ so für jede Klasse von Situationen, anzugeben, wie die Einga- beinformationen auf die Ausgabeinformationen abgebildet wer¬ den sollen.According to the invention, the neural network 1 stores a model for each context, ie for each class of situations. The model indicates how the input information should be mapped to the output information. The model thus describes which behavior is correct in a particular situation. Different situations may require different behavior. This is always the case when the context changes from one situation to the next. This means that in the second situation different output information must be selected than in the first situation. Different situations can therefore be based on a different context. With the models, the neural network 1 now attempts to specify, for each context, for each class of situations, how the input information is to be mapped to the output information.
Wenn das neuronale Netz 1 dann mit einer veränderten Situati¬ on, der ein anderer Kontext zugrunde liegt, konfrontiert wird, so braucht es nur sein Modell zu wechseln. Gemäß einer Ausführungsform der Erfindung enthält die Zwi¬ schenschicht 20 Regelpools 21, die miteinander in Konkurrenz treten, wobei sich nur ein aktivierter Regelpool 23 durchset¬ zen kann. Die Regelpools 21 stellen jeweils eine Verschal- tungsmöglichkeit einer Eingabeinformation mit einer Ausgabe¬ information dar. Durch den aktivierten Regelpool 23 wird die zugeführte Eingabeinformation 2 mit der zu entnehmenden Aus¬ gabeinformation 3 verschaltet.If the neural network 1 is then confronted with a changed situation on which another context is based, then it is only necessary to change its model. According to one embodiment of the invention, the intermediate layer 20 contains rule pools 21 which compete with each other, whereby only one activated rule pool 23 can enforce itself. The rule pools 21 each represent a possibility of interconnection of an input information with an output information. The input control information 2 is interconnected with the output information 3 to be extracted by the activated rule pool 23.
Diese Verschaltung besteht aus starken Verbindungen zwischen Neuronen der Eingabeschicht 10, Neuronen des Regelpools 23 und Neuronen der AusgäbeSchicht 30. Verschaltung bedeutet al¬ so, dass Neuronen, Pools oder Schichten nicht nur miteinander verknüpft sind, was bei einer Vollvernetzung ohnehin vor- liegt, sondern dass die Gewichte der Verknüpfungen stark sind.This interconnection consists of strong connections between neurons of the input layer 10, neurons of the control pool 23 and neurons of the output layer 30. Interconnection thus means that neurons, pools or layers are not only linked to one another, which is already present in a full interconnection, but instead that the weights of the links are strong.
Gemäß einer Ausführungsform der Erfindung enthält die Modell¬ schicht 40 Modellpools 41, die miteinander konkurrieren, wo- bei sich nur ein aktiver Modellpool 42 durchsetzen kann. Der aktive Modellpool 42 ist mit einer Auswahl 22 von Regelpools 21 verschaltet. Dies bedeutet, dass die Regelpools 21 in der Auswahl 22 in ihrer Konkurrenz mit den anderen Regelpools 21 unterstützt werden, solange der aktive Modellpool 42 akti- viert ist. Der aktive Modellpool 42 bestimmt somit, welcheAccording to one embodiment of the invention, the model layer 40 contains model pools 41 that compete with each other, whereby only one active model pool 42 can prevail. The active model pool 42 is interconnected with a selection 22 of rule pools 21. This means that the rule pools 21 in the selection 22 are supported in their competition with the other rule pools 21 as long as the active model pool 42 is activated. The active model pool 42 thus determines which
Regelpools 21 aktiviert werden können, und damit, wie die zu¬ geführte Eingabeinformation 2 auf die zu entnehmende Ausgabe¬ information 3 abgebildet wird. Welcher Regelpool 21 in der Auswahl 22 aktiviert wird, hängt von der zugeführten Eingabe- information 2 ab. Welche Ausgabeinformation 3 entnommen wird, hängt von dem aktivierten Regelpool 23 ab.Rule pools 21 can be activated, and thus, how the zu¬ guided input information 2 is mapped to the output information 3 to be taken. Which rule pool 21 is activated in the selection 22 depends on the supplied input information 2. Which output information 3 is taken depends on the activated rule pool 23.
Die oben angesprochenen Modelle werden also jeweils durch ei¬ nen Modellpool 41 sowie durch die mit dem Modellpool 41 ver- schalteten Regelpools 21 sowie deren Zusammenspiel gebildet. Gemäß einer Ausführungsform der Erfindung enthält das neuro¬ nale Netz 1 einen hemmenden Pool 50, welcher aus hemmenden, gepulsten Neuronen gebildet wird. Der hemmende Pool 50 ist mit der Modellschicht 40 verbunden, und übt eine globale Hem- mung auf die konkurrierenden Pools 41 auf. Dies ist notwen¬ dig, damit sich jeweils nur ein aktiver Modellpool 42 in der Konkurrenz durchsetzen kann.The above-mentioned models are thus formed in each case by a model pool 41 and by the rule pools 21 connected to the model pool 41 as well as their interaction. According to one embodiment of the invention, the neuronal network 1 contains an inhibiting pool 50, which is formed from inhibitory, pulsed neurons. The inhibiting pool 50 is connected to the model layer 40 and exerts a global inhibition on the competing pools 41. This is necessary so that only one active model pool 42 can prevail in the competition.
Der hemmende Pool 50 wird hierbei durch die Modellpools 41 angeregt. Dies bedeutet, dass der aktive Modellpool 42 durch seine Aktivität den hemmenden Pool 50 stimuliert und dadurch die anderen Modellpools 41 indirekt hemmt. Nach dem gleichen Prinzip kann auch Konkurrenz in den anderen Schichten imple¬ mentiert werden.The inhibiting pool 50 is stimulated here by the model pools 41. This means that the active model pool 42 stimulates the inhibitory pool 50 by its activity and thereby indirectly inhibits the other model pools 41. According to the same principle, competition in the other layers can also be implemented.
Wenn ein Pool einen anderen aktiviert oder anregt, so bedeu¬ tet dies, dass zwischen den Neuronen der beiden Pools starke Verbindungen bestehen. Bei der Anregung oder Aktivierung han¬ delt es sich um erregende Verbindungen, z. B. starke, erre- gende, synaptische Verbindungen. Im Fall der Hemmung handelt es sich um hemmende Verbindungen, z. B. hemmende, synaptische Verbindungen.If one pool activates or excites another, this means that strong connections exist between the neurons of the two pools. The excitation or activation involves excitatory compounds, eg. For example, strong, excitatory, synaptic connections. In the case of inhibition are inhibitory compounds, eg. B. inhibitory, synaptic connections.
Gemäß einer Ausführungsform der Erfindung ist der hemmende Pool 50 auch mit den anderen Schichten stark verbunden oder es gibt einen oder mehrere hemmende Pools, die mit den ande¬ ren Schichten verschaltet sind, d. h. einen hemmenden Ein- fluss auf sie ausüben.According to one embodiment of the invention, the inhibiting pool 50 is also strongly connected to the other layers or there are one or more inhibiting pools which are interconnected with the other layers, d. H. have an inhibiting influence on them.
Wenn die entnommene Ausgabeinformation 3 falsch war, so muss das neuronale Netz 1 informiert werden, dass seine aktuelle Abbildung bzw. sein aktuelles Modell nicht der gegenwärtigen Situation bzw. dem gegenwärtigen Kontext entspricht. Hierzu wird der hemmende Pool 50 durch eine Falsch-Rückmeldung 4 ak- tiviert, wodurch die globale Hemmung zu einer vollständigenIf the extracted output information 3 was false, the neural network 1 must be informed that its current map or model does not correspond to the current situation or context. For this purpose, the inhibiting pool 50 is activated by a false feedback 4, whereby the global inhibition becomes complete
Hemmung aller Modellpools 41 verstärkt wird. Dadurch wird der aktive Modellpool 42 mit allen anderen Modellpools 41 deakti- viert. Der aktive Modellpool 42 unterliegt anschließend in der Konkurrenz gegenüber den anderen Modellpools 41, wodurch ein anderer Modellpool 41 aktiviert wird.Inhibition of all model pools 41 is reinforced. As a result, the active model pool 42 is deactivated with all other model pools 41. fourth. The active model pool 42 is then in competition with the other model pools 41, thereby activating another model pool 41.
Die Falsch-Rückmeldung 4 kann z. B. dadurch implementiert werden, dass die Neuronen des hemmenden Pools 50 über deren synaptische Eingänge von außen aktiviert werden.The false feedback 4 can z. B. be implemented by activating the neurons of the inhibitory pool 50 via the external synaptic inputs.
Damit der aktive Modellpool 42 nach der vollständigen Hemmung in der Konkurrenz unterliegt, werden gemäß einer Ausführungs- form der Erfindung Synapsen der erregenden, gepulsten Neuro¬ nen des aktiven Modellpools 42 derart adaptiert, dass die Selbstverstärkung des aktiven Modellpools 42 mit der Zeit ab¬ nimmt. Indem die synaptischen Stärken der erregenden, gepuls- ten Neuronen des aktiven Modellpools 42 gesenkt werden, sin¬ ken auch die rekurrenten Gewichte des aktiven Modellpools 42. Ein solches Verfahren ist aus der Fachliteratur als "kurzzei¬ tige synaptische Depression (STD)" bekannt. Es können jedoch auch andere Verfahren zum Einsatz kommen.So that the active model pool 42 is subject to complete inhibition in the competition, according to an embodiment of the invention, synapses of the exciting, pulsed neurons of the active model pool 42 are adapted such that the self-amplification of the active model pool 42 decreases over time , By reducing the synaptic strengths of the exciting, pulsed neurons of the active model pool 42, the recurring weights of the active model pool 42 are also reduced. Such a method is known from specialist literature as "short-term synaptic depression (STD)". However, other methods may be used.
Nachdem der aktive Modellpool 42 in der Konkurrenz unterlegen ist, wird ein anderer Modellpool 41 aktiviert, der z. B. eine Auswahl 24 von Regelpools 21 unterstützt. Es wird nun also eine andere Abbildung gewählt, womit der Kontextänderung Rechnung getragen wird. Bei der nächsten zugeführten Eingabe¬ information 2 würde der ehemals aktivierte Regelpool 23 in der Konkurrenz mit den Regelpools 21 aus der Auswahl 24 un¬ terliegen, da diese nun durch die Modellschicht 40 unter¬ stützt werden. Dadurch wird die nächste zugeführte Eingabein- formation 2 mit einer anderen entnehmbaren Ausgabeinformation 3 verschaltet.After the active model pool 42 is inferior in the competition, another model pool 41 is activated, the z. For example, a selection 24 of rule pools 21 is supported. So now another picture is chosen, which takes into account the context change. In the case of the next input information 2 supplied, the previously activated rule pool 23 would be in competition with the rule pools 21 from the selection 24, since these are now supported by the model layer 40. As a result, the next supplied input information 2 is interconnected with another removable output information 3.
Gemäß einer Ausführungsform der Erfindung weist auch die Ein¬ gabeschicht 10 Eingabepools 11 auf, die miteinander in Kon- kurrenz treten, wobei sich immer nur ein Eingabepool 11 in der Konkurrenz durchsetzen kann. Hierbei kann jeder Eingabe¬ information ein eigener Eingabepool 11 zugeordnet sein. Es kann jedoch auch eine Vorverarbeitung stattfinden, so dass aus den Eingabeinformationen bestimmte Merkmale extrahiert werden, die anschließend durch einen Eingabepool 11 repräsen¬ tiert werden. So kann ein Eingabepool 11 für eckige Formen und ein anderer Eingabepool für runde Formen aktiviert wer¬ den.According to one embodiment of the invention, the input layer 10 also has input pools 11 which compete with each other, whereby only one input pool 11 can ever prevail in the competition. In this case, each input information can be assigned its own input pool 11. It However, preprocessing may also take place, so that from the input information certain features are extracted, which are subsequently represented by an input pool 11. Thus, an input pool 11 for angular shapes and another input pool for round shapes can be activated.
In einer Variante der Erfindung weist auch die Ausgabeschicht 30 Ausgabepools 31 auf, welche miteinander in Konkurrenz ste- hen, wobei sich auch wieder nur ein Ausgabepool 31 in der Konkurrenz durchsetzen kann.In one variant of the invention, the output layer 30 also has output pools 31 which compete with one another, whereby again only one output pool 31 can prevail in the competition.
Figur 1 zeigt den Fall, dass ein aktiver Modellpool 42 eine Auswahl 22 von Regelpools 21 unterstützt. Weiterhin wird durch die zugeführte Eingabeinformation 2 ein repräsentativer Eingabepool 12 aktiviert. Dieser aktiviert innerhalb der Aus¬ wahl 22 den aktivierten Regelpool 23. Dieser wiederum ist mit einem repräsentativen Ausgabepool 32 verschaltet, weshalb dieser aktiviert wird. Im Anschluss wird die Ausgabeinforma- tion 3 entnommen, welche durch den repräsentativen Ausgabe¬ pool 32 repräsentiert wird.FIG. 1 shows the case that an active model pool 42 supports a selection 22 of rule pools 21. Furthermore, a representative input pool 12 is activated by the supplied input information 2. This activates the activated rule pool 23 within the selection 22. This in turn is interconnected with a representative output pool 32, for which reason it is activated. Subsequently, the output information 3 is taken, which is represented by the representative output pool 32.
Gemäß einer Ausführungsform der Erfindung werden die Schich¬ ten durch mindestens einen nicht-spezifischen Pool angeregt, welcher aus erregenden gepulsten Neuronen besteht. Dieser er¬ hält keine spezifischen Eingaben von einer der Schichten und trägt mit spontanen Pulsen zur Ausbildung realistischer Puls¬ verteilungen bei. Die Neuronen des nicht-spezifischen Pools sind nicht mit den anderen Schichten bzw. Pools korreliert, d. h. sie sind nicht spezifisch aktivierbar, da sie zwar mit den anderen Schichten/Pools vernetzt sein können, aber nicht mit starken Verbindungen.According to one embodiment of the invention, the layers are excited by at least one non-specific pool, which consists of exciting pulsed neurons. This device does not receive any specific inputs from one of the layers and contributes with spontaneous pulses to the formation of realistic pulse distributions. The neurons of the non-specific pool are not correlated with the other layers or pools, i. H. they are not specifically activatable, as they may be networked with the other layers / pools, but not with strong connections.
Das neuronale Netz 1 kann als Attraktor-rekurrentes autoasso- ziatives neuronales Netz ausgeführt sein. Solche Netze sind in den genannten Schriften beschrieben. Hierbei sind die sy¬ naptischen Verbindungen von der Eingabeschicht 10 zur Zwi- schenschicht 20, von der Zwischenschicht 20 zu der Ausgabe¬ schicht 30, und von der Modellschicht 40 zu der Zwischen¬ schicht 20 jeweils stärker ausgeführt sind als in der Rück¬ richtung.The neural network 1 can be designed as an attractor-recurrent autoassociative neural network. Such networks are described in the cited documents. In this case, the synaptic connections from the input layer 10 to the intermediate layer 20, from the intermediate layer 20 to the output layer 30, and from the model layer 40 to the intermediate layer 20, respectively, are made stronger than in the return direction.
Gemäß einer Ausführungsform wird angenommen, dass die synap¬ tischen Stärken zwischen den Neuronen des neuronalen Netzes 1 so ausgeführt sind, als ob sie durch Hebb'sches Lernen ausge¬ bildet worden seien. Dies bedeutet, dass die synaptische Stärke zwischen Neuronen, welche eine korrelierte Aktivität haben, stark ist, wohingegen die synaptische Stärke zwischen unkorrelierten Neuronen schwächer ausfällt. Dementsprechend können die synaptischen Stärken zwischen den erregenden ge¬ pulsten Neuronen innerhalb eines der erregenden Pools, also eines Eingabepools 11, eines Regelpools 21, eines Ausgabe¬ pools 31 oder eines Modellpools 41, mit einem starken Gewicht von z. B. w = 2,1 ausgeführt sein. Die hemmenden Neuronen in dem hemmenden Pool 50 oder anderen hemmenden Pools können mit einem Gewicht von w = 1 miteinander verbunden sein, welches zu einem nicht-oszillierenden Verhalten beiträgt. Die hemmen¬ den Neuronen können außerdem mit allen erregenden Neuronen des jeweiligen Moduls oder des gesamten neuronalen Netzes 1 mit dem gleichen Gewicht w = 1 verbunden sein. Das Gewicht zwischen zwei erregenden gepulsten Neuronen, welche in unter- schiedlichen erregenden Pools derselben Schicht liegen, ist dagegen vorzugsweise schwach ausgeführt. Die Neuronen der er¬ regenden Pools sind weiterhin vorzugsweise mit Neuronen in dem nicht-selektiven Pool mit einer vorwärts gerichteten sy¬ naptischen Stärke von w = 1 und einer rückwärts gerichteten synaptischen Stärke verbunden, welche ebenfalls schwach aus¬ fällt.According to one embodiment, it is assumed that the synaptic strengths between the neurons of the neural network 1 are designed as if they had been formed by Hebbian learning. This means that the synaptic strength between neurons, which have a correlated activity, is strong, whereas the synaptic strength between uncorrelated neurons is weaker. Accordingly, the synaptic strengths between the excitatory pulsed neurons within one of the excitatory pools, ie an input pool 11, a rule pool 21, an output pool 31 or a model pool 41, with a strong weight of z. B. w = 2.1 executed. The inhibitory neurons in the inhibitory pool 50 or other inhibitory pools may be interconnected at a weight of w = 1, which contributes to non-oscillatory behavior. The inhibiting neurons may also be connected to all exciting neurons of the respective module or the entire neural network 1 with the same weight w = 1. By contrast, the weight between two exciting pulsed neurons, which lie in different exciting pools of the same layer, is preferably weak. The neurons of the excitatory pools are furthermore preferably connected to neurons in the non-selective pool with a forward synaptic strength of w = 1 and a reverse synaptic strength, which likewise falls weakly.
Gemäß einer Ausführungsform der Erfindung ist jeder Regelpool 21 mit einem Eingabepool 11, einem Modellpool 41 sowie einem Ausgabepool 31 so verbunden, als ob die Verbindung durchAccording to one embodiment of the invention, each rule pool 21 is connected to an input pool 11, a model pool 41, and an output pool 31 as if the connection were through
Hebb'sches Lernen während der Einübung unterschiedlicher Ver¬ haltensweisen ausgebildet worden wäre. Die synaptische Stärke der Verbindungen zwischen den Modellpools 41 und den Regel¬ pools 21 liegt z. B. bei w = 1,1.Hebbian learning would have been trained while practicing different behaviors. The synaptic strength the connections between the model pools 41 and the Regel¬ pools 21 is z. At w = 1.1.
Das Wechselspiel zwischen den Schichten entspricht der multi- arealen Verschaltung im menschlichen Gehirn. Das neuronale Netz 1 kann auch weitere Schichten aufweisen. Diese weiteren Schichten können die Funktionen bestimmter Gehirnareale ab¬ bilden. Auf diese Weise kann die Funktionalität des neurona¬ len Netzes 1 erheblich erweitert werden. Denkbar ist z. B. die Filterung von Eingabeinformationen durch Modellierung ei¬ ner selektiven Aufmerksamkeit, sowie die Implementation von Arbeits- oder Langzeit-Gedächtnisfunktionen. Die weiteren Schichten können in beschriebener Weise aufgebaut sein und miteinander wechselwirken, oder auch andere bekannte Verfah- ren implementieren.The interplay between the layers corresponds to the multi-area interconnection in the human brain. The neural network 1 can also have further layers. These additional layers can form the functions of specific brain areas. In this way, the functionality of the neuronal network 1 can be considerably expanded. It is conceivable z. As the filtering of input information by modeling ei¬ ner selective attention, as well as the implementation of work or long-term memory functions. The further layers can be constructed in the manner described and interact with one another, or else implement other known methods.
Das neuronale Netz 1 kann als neurodynamisches Netz ausge¬ führt sein, insbesondere in der Form eines neurodynamisehen Netzes gepulster Neuronen. Dies kann die Verwendung bekannter neuronaler Netze (artificial neural networks) , Multilagen-The neural network 1 can be designed as a neurodynamic network, in particular in the form of a neurodynamic network of pulsed neurons. This may include the use of known neural networks, multilayer
Perceptrons, SOMs (seif organizing maps) etc. mit einschlie¬ ßen. Die gepulsten Neurone können z. B. als so genannte spi- kende oder auch als so genannte pulscodierende Neurone ausge¬ bildet sein.Perceptrons, SOMs (seif organizing maps) etc. include. The pulsed neurons can z. B. be formed as so-called spiking or as so-called pulse-coding neurons.
Weitere Hinweise zur Implementation der Schichten, Pools, der Verbindungen und Neuronen sowie deren Wechselspiel finden sich in [2], [3] und [4]. Die Dynamik .der jeweiligen Neuro¬ nen, Pools und Schichten kann durch eines oder mehrere Kon- zepte der folgenden Gruppe implementiert werden: Mean-Field- Ansatz, Integrate-and-Fire-Ansatz, Ansatz für pulscodierende Neurone, Multikompartiment-Ansatz und Hodgkin-Huxley-Ansatz. Hierzu wird auf die genannten Schriften verwiesen.Further notes on the implementation of the layers, pools, connections and neurons as well as their interplay can be found in [2], [3] and [4]. The dynamics of the respective neurons, pools and layers can be implemented by one or more concepts of the following group: mean-field approach, integrate-and-fire approach, approach to pulse-coding neurons, multicompartment approach and Hodgkin's -Huxley approach. Reference is made to the cited documents.
Intelligente Agenten, welche das erfindungsgemäße Verfahren bzw. das neuronale Netz einsetzen, können zur neurokognitiven Prozess-Steuerung, insbesondere für technische Vorgänge, zur neurokognitiven Fahrerassistenz sowie zur neurokognitiven Ro- botersteuerung eingesetzt werden.Intelligent agents which use the method according to the invention or the neural network can be used for neurocognitive process control, in particular for technical processes, for neurocognitive driver assistance and for neurocognitive robot control.
Die Erfindung beruht auf dem Prinzip des beeinflussten Wett- bewerbs (Biased Competition) . Einerseits wirkt ein aktives Modell, welches durch den aktiven Modellpool 42 sowie durch die Verschaltungen der Regelpools 21, welche zu der Auswahl 22 gehören, gebildet wird, steuernd (top-down) auf die Abbil¬ dung von Eingabeinformationen auf Ausgabeinformationen ein. Andererseits wirken die Eingabeinformationen als entgegenge¬ setzter Einfluss (bottom-up) , welcher bestimmte Neuronen und Pools aktiviert. Die tatsächliche Verschaltung der zugeführ¬ ten Eingabeinformation 2 mit der entnommenen Ausgabeinforma¬ tion 3 entwickelt sich aus einem Wechselspiel dieser beiden Einflüsse. Das neuronale Netz 1 erreicht somit ein hohes Maß an Flexibilität, wodurch es in seinem Verhalten, d. h. in seiner Abbildung von Eingabeinformationen auf Ausgabeinforma¬ tionen flexibel auf Kontextänderungen, d. h. veränderte Situ¬ ationen, reagieren kann.The invention is based on the principle of influenced competition (Biased Competition). On the one hand, an active model, which is formed by the active model pool 42 and by the interconnections of the rule pools 21 which belong to the selection 22, acts on the mapping of input information to output information in a top-down manner. On the other hand, the input information acts as an opposing influence (bottom-up), which activates certain neurons and pools. The actual interconnection of the supplied input information 2 with the extracted output information 3 develops from an interplay of these two influences. The neural network 1 thus achieves a high degree of flexibility, which in its behavior, ie. H. in its mapping of input information to output information flexible to context changes, d. H. changed situations, can react.
Da das neuronale Netz 1 unmittelbar die neurodynamisehen Pro¬ zesse im menschlichen Gehirn abbildet, ist es von direkter biologischer Relevanz. Dies beruht auf der genauen Simulation der biologischen Prozesse im Gehirn. Beispielsweise können die gepulsten Neuronen als Integrieren-und-Feuern-NeuronenSince the neural network 1 directly depicts the neurodynamic processes in the human brain, it is of direct biological relevance. This is based on the exact simulation of the biological processes in the brain. For example, the pulsed neurons may be integrated-and-firing neurons
(integrate and fire) implementiert werden. Es kann von neuro- kognitiver Modellierung gesprochen werden, d. h. das mensch¬ liche Verhalten wird unmittelbar durch die beteiligten neuro¬ nalen Prozesse modelliert.(integrate and fire). There may be talk of neurocognitive modeling, i. H. The human behavior is modeled directly by the involved neuronal processes.
Hieraus ergibt sich eine Anzahl an medizinisch-klinischen An¬ wendungen. So kann das erfindungsgemäße neuronale Netz und Verfahren als Modell für klinische Versuchsergebnisse heran¬ gezogen werden. Zunächst werden Versuche mit einem Probanden durchgeführt, um das Verhalten in Situationen mit wechselndem Kontext zu untersuchen. Anschließend wird das erfindungsgemä¬ ße Verfahren mit einem neuronalen Netz unter den gleichen Versuchsbedingungen durchgeführt. Durch den Vergleich der Er¬ gebnisse können Hypothesen über die Funktionsweise des Ge¬ hirns unmittelbar überprüft werden.This results in a number of medical-clinical applications. Thus, the neural network and method according to the invention can be used as a model for clinical trial results. First, experiments are conducted with a subject to examine behavior in situations of changing context. Subsequently, the method according to the invention with a neural network becomes the same Test conditions carried out. By comparing the results, hypotheses about the functioning of the brain can be checked directly.
Gleiches gilt für krankhafte Störungen. So können bei der Si¬ mulation mit dem erfindungsgemäßen Verfahren veränderte che¬ mische Voraussetzungen, z. B. Stoffwechselstörungen oder ver¬ änderte Konzentrationen von Neuro-Transmittern, berücksich¬ tigt werden. Durch diese inverse Modellierung kann das Ver- halten, beispielsweise eines schizophrenen Patienten, durch das erfindungsgemäße Verfahren simuliert werden. Aus den Er¬ gebnissen und dem Vergleich mit Versuchsergebnissen mit schi¬ zophrenen Patienten können wiederum Hypothesen bezüglich der Natur der Störung im Gehirn überprüft werden. Gleiches gilt für andere Störungen.The same applies to pathological disorders. Thus, in the simulation with the method according to the invention, modified chemical conditions, eg. As metabolic disorders or ver¬ changed concentrations of neurotransmitters, be taken into account. By means of this inverse modeling, the behavior, for example of a schizophrenic patient, can be simulated by the method according to the invention. From the results and the comparison with test results with schizophrenic patients, hypotheses concerning the nature of the disorder in the brain can be checked again. The same applies to other disorders.
Ein intelligenter Agent, welcher das erfindungsgemäße Verfah¬ ren bzw. das erfindungsgemäße neuronale Netz implementiert, ist in äußerst vielseitiger Weise einsetzbar. Beispielsweise könnte ein solcher Agent zur Chart-Analyse herangezogen wer¬ den. Hierbei wird versucht, aus dem bisherigen Verlauf eines Aktienkurses auf seine zukünftige Entwicklung zu schließen. In diesem Anwendungsfall wird dem neuronalen Netz 1 als Ein¬ gabeinformation 2 beispielsweise der Kursverlauf einer Aktie während der letzten sechs Monate zugeführt. Die entnommene Ausgabeinformation 3 stellt nun eine Kauf- bzw. Verkaufsemp¬ fehlung dar. Wenn sich die Empfehlung als falsch heraus¬ stellt, bekommt das neuronale Netz 1 eine Falsch-Rückmeldung 4. Auf diese Weise kann das neuronale Netz 1 flexibel auf Kontextänderungen reagieren, beispielsweise wenn die Stimmung an der Börse umschwingt. Bei der nächsten zugeführten Einga¬ beinformation 2, z. B. dem Kursverlauf einer anderen Aktie während der letzten sechs Monate, kann das neuronale Netz 1 die veränderte Stimmung an der Börse, also den geänderten Kontext, bereits berücksichtigen. Die Erfindung eignet sich besonders für komplexe Zusammenhän¬ ge, die nicht durch ein deklaratives Regel-Modell erfasst werden können. Hierzu zählen Entwicklungen an den Börsen oder die Wettervorhersage. Das neuronale Netz 1 ist bildlich ge- sprochen in der Lage, eine Bauchentscheidung zu treffen. Dies liegt darin begründet/ dass die entnommene Ausgabeinformation 2 auch als Gefühl interpretiert werden kann. Das Gefühl be¬ ruht auf einer intuitiven Interpretation der Eingabeinforma¬ tionen, wobei intuitiv bedeutet, dass die Eingabeinformatio- nen durch implizite, nicht durch explizit repräsentierte Re¬ geln auf die Ausgabeinformationen abgebildet werden. Die ent¬ nommene Ausgabeinformation 3 gibt in diesem Zusammenhang als Gefühl eine generelle Richtung des Handels vor. Auf Grundlage des Gefühls, dass der Aktienkurs fallen wird, können unter- schiedliche Entscheidungen getroffen werden, etwa das Halten einer Aktienposition, das Reduzieren, oder das vollständige Verkaufen. Liegt als entnommene Ausgabeinformation 3 ein Ge¬ fühl vor, dass der Aktienkurs steigen wird, so sind als Hand¬ lungen der Neukauf sowie das Aufstocken oder Halten einer Ak- tienposition möglich. Durch den Zwischenschritt der Situati¬ onsbewertung mit Hilfe eines Gefühls als entnommene Ausgabe¬ information 3 wird somit das Verhalten des intelligenten A- genten flexibilisiert.An intelligent agent which implements the method according to the invention or the neural network according to the invention can be used in an extremely versatile manner. For example, such an agent could be used for chart analysis. Here, an attempt is made to conclude from the history of a stock price on its future development. In this application, the neural network 1 is fed as input information 2, for example, the price history of a share during the last six months. The extracted output information 3 now represents a purchase or sales recommendation. If the recommendation turns out to be false, the neural network 1 receives a false feedback 4. In this way, the neural network 1 can react flexibly to context changes, for example, when the mood on the stock exchange changes. At the next input information input 2, e.g. If, for example, the price of another share during the past six months, the neural network 1 can already take into account the changed mood on the stock market, ie the changed context. The invention is particularly suitable for complex connections that can not be detected by a declarative rule model. These include developments on the stock markets or the weather forecast. The neural network 1 is figuratively in a position to make a gut decision. This is because / that the extracted output information 2 can also be interpreted as a feeling. The feeling is based on an intuitive interpretation of the input information, whereby intuitively means that the input information is mapped to the output information by implicit, not explicitly represented rules. In this context, the extracted output information 3 gives as feeling a general direction of trade. Based on the feeling that the stock price will fall, different choices can be made, such as holding a stock position, reducing it, or selling it all. If there is a feeling that the share price is going to rise as the extracted issue information 3, the new purchase as well as the stocking or holding of an equity position are possible as actions. The behavior of the intelligent agent is thus made more flexible by the intermediate step of situational evaluation with the aid of a feeling as extracted output information 3.
Intelligente Agenten mit flexiblem, menschähnlichen Verhalten sind auch anderweitig einsetzbar, etwa als Charaktere bei Trainingssimulationen und Computerspielen.Intelligent agents with flexible, human-like behavior can also be used elsewhere, for example as characters in training simulations and computer games.
Die Erfindung betrifft unter anderem den Bereich der kogniti- ven Flexibilität und Verhaltensänderung. Die dynamische Ver¬ stärkung (Dynamic Reinforcement) unterstützt hierbei das Ler¬ nen. In einer Ausführungsform der Erfindung bildet das neuro¬ nale Netz 1 als Abbildung in der Zwischenschicht 20 Assozia¬ tionen zwischen Eingabeinformationen und einer Belohnung bzw. Bestrafung aus. Durch das Wechselspiel mit der Modellschicht 40 können diese Assoziationen bereits nach einer Falsch- Rückmeldung 4 umgekehrt werden. Die Falsch-Rückmeldung 4 er- folgt immer dann, wenn als Ausgabeinformation 3 eine Beloh¬ nungserwartung entnommen wurde und diese nicht eintritt bzw. eine Bestrafung eintritt. Die Falsch-Rückmeldung 4 kann auch dann erfolgen, wenn als Ausgabeinformation 3 entnommen wird, dass das neuronale Netz 1 eine Bestrafung erwartet, und diese aber ausbleibt bzw. eine Belohnung eintritt. Auf diese Weise lernt das neuronale Netz 1, wann eine Belohnung, und wann ei¬ ne Bestrafung zu erwarten ist, und reagiert mit einem Gefühl als zu entnehmender Ausgabeinformation 3, welches diese Er- Wartung repräsentiert, und aus welchem eine passende Handlung abgeleitet werden kann.The invention relates inter alia to the field of cognitive flexibility and behavioral change. The dynamic reinforcement (Dynamic Reinforcement) supports the Ler¬ nen. In one embodiment of the invention, the neuronal network 1 as an image in the intermediate layer 20 forms associations between input information and a reward or punishment. Due to the interplay with the model layer 40, these associations can already be reversed after a false feedback 4. The false feedback 4 always follows when a reward expectation has been taken as output information 3 and this does not occur or punishment occurs. The false-feedback 4 can also take place when it is taken as output information 3 that the neural network 1 expects a punishment, but this fails or a reward occurs. In this way, the neural network 1 learns when to reward, and when to expect punishment, and responds with a feeling as output information 3 to be extracted, representing this maintenance, and from which an appropriate action can be derived ,
Figur 2 zeigt eine spezielle Ausführungsform der Erfindung. Das neuronale Netz 1 ist hier in ein erstes Modul 5 und ein zweites Modul 6 gegliedert. Dem zweiten Modul 6 wird eineFigure 2 shows a specific embodiment of the invention. The neural network 1 is here divided into a first module 5 and a second module 6. The second module 6 is a
Eingabeinformation 2 zugeführt und eine Ausgabeinformation 3 entnommen. Wenn die Ausgabeinformation falsch ist, wird dem ersten Modul 5 eine Falsch-Rückmeldung 4 zugeführt.Input information 2 supplied and an output information 3 taken. If the output information is incorrect, the first module 5 is supplied with a false feedback 4.
Das erste Modul 5 weist eine Modellschicht 40 auf. Das zweite Modul 6 weist eine Eingabeschicht 10, eine Zwischenschicht 20 sowie eine Ausgabeschicht 30 auf.The first module 5 has a model layer 40. The second module 6 has an input layer 10, an intermediate layer 20 and an output layer 30.
Die Eingabeschicht 10 enthält zwei Eingabepools 15 und 16, welche miteinander in Konkurrenz treten. Wird ein erstes Ob¬ jekt zugeführt, so wird der Eingabepool 15 aktiviert. Wird ein zweites Objekt zugeführt, so wird der Eingabepool 16 ak¬ tiviert.The input layer 10 includes two input pools 15 and 16 which compete with each other. If a first object is supplied, the input pool 15 is activated. If a second object is supplied, the input pool 16 is activated.
Die Zwischenschicht 20 weist eine Auswahl 22 und eine Auswahl 24 von Regelpools auf. Die Auswahl 22 enthält Regelpools 25 und 26, die Auswahl 24 enthält Regelpools 27 und 28. Die Aus¬ gabeschicht 30 enthält Ausgabepools 35 und 36. Die Modell¬ schicht 40 enthält Modellpools 45 und 46. Innerhalb jeder Schicht treten die Pools miteinander in Konkurrenz. Die Kon¬ kurrenz in der Modellschicht 40 wird durch einen hemmenden Pool 50 unterstützt, welcher aus hemmenden Neuronen besteht, und durch die Falsch-Rückmeldung 4 zusätzlich erregt werden kann. Die Konkurrenz in den Schichten des zweiten Moduls 6 wird durch einen hemmenden Pool 60 unterstützt, welcher mit diesen Schichten verbunden ist und eine globale Hemmung auf die enthaltenen Neuronen ausübt. Dem ersten Modul 5 ist ein nicht-spezifischer Pool 70 zugeordnet, dessen Aktivität durch die Schichten der beiden Module nicht beeinflusst wird. Glei¬ chermaßen enthält das Modul 6 einen nicht-spezifischen Pool 80, dessen Aktivität nicht durch die Schichten beeinflusst wird. Die nicht-spezifischen Pools 80 und 70 tragen mit spon¬ tanen Pulsen zur Ausbildung realistischer Pulsverteilungen bei.The intermediate layer 20 has a selection 22 and a selection 24 of rule pools. The selection 22 contains rule pools 25 and 26, the selection 24 contains rule pools 27 and 28. The output layer 30 contains output pools 35 and 36. The model layer 40 contains model pools 45 and 46. Within each tier, the pools compete with each other. The competition in the model layer 40 is supported by an inhibiting pool 50, which consists of inhibitory neurons, and can be additionally excited by the false feedback 4. The competition in the layers of the second module 6 is aided by an inhibiting pool 60 which is connected to these layers and exerts a global inhibition on the contained neurons. The first module 5 is assigned a non-specific pool 70 whose activity is not influenced by the layers of the two modules. Similarly, the module 6 contains a non-specific pool 80 whose activity is not affected by the layers. The non-specific pools 80 and 70 contribute with spontaneous pulses to the formation of realistic pulse distributions.
In einer speziellen Ausführungsform der Erfindung wird das zweite Modul 6 mit 1600 gepulsten Neuronen (hier Pyramidal¬ zellen) und 400 hemmenden gepulsten Neuronen implementiert. Das erste Modul 5 kann mit 1000 erregenden gepulsten Neuronen und 200 hemmenden Neuronen implementiert werden. Diese Zahlen stellen lediglich ein Beispiel dar. Das Verhältnis von erre- genden Pyramidalzellen zu hemmenden Neuronen kann z. B. 80:20 betragen. Gemäß einer Ausführungsform der Erfindung sind alle Neuronen miteinander voll verknüpft. Die Pools können z. B. aus 80 oder 100 Neuronen gebildet werden.In a specific embodiment of the invention, the second module 6 is implemented with 1600 pulsed neurons (here pyramidal cells) and 400 inhibiting pulsed neurons. The first module 5 can be implemented with 1000 exciting pulsed neurons and 200 inhibitory neurons. These numbers are only an example. The ratio of excitatory pyramidal cells to inhibitory neurons may be e. B. 80:20 amount. According to one embodiment of the invention, all neurons are fully interconnected. The pools can z. B. from 80 or 100 neurons are formed.
In einer speziellen Ausführungsform sind alle Pools des ers¬ ten Moduls einschließlich des hemmenden Pools 50 und des nicht-spezifischen Pools 70 miteinander vernetzt. Weiterhin sind alle Pools des zweiten Moduls 6 einschließlich des hem¬ menden Pools 60 und des nicht-spezifischen Pools 80 miteinan- der vernetzt.In a specific embodiment, all the pools of the first module including the inhibiting pool 50 and the non-specific pool 70 are networked with each other. Furthermore, all the pools of the second module 6, including the enclosing pool 60 and the non-specific pool 80, are networked with one another.
Die Vernetzung der Pools erfolgt über synaptische Verbindun¬ gen zwischen den in den Pools enthaltenen Neuronen. Die Stär¬ ke der synaptischen Verbindungen zwischen den einzelnen Pools für das erste Modul ist in Figur 3 exemplarisch angegeben.The networking of the pools takes place via synaptic connections between the neurons contained in the pools. The strength of the synaptic connections between the individual pools for the first module is shown by way of example in FIG.
Eine synaptische Stärke von ww steht hierbei für eine schwa¬ che synaptische Stärke, zum Beispiel von ww = 0,878. Eine sy- naptische Stärke von ws steht für eine starke synaptische Stärke (zum Beispiel von ws = 2,1) . Aus Figur 3 geht hervor, dass die Modellpools 45 und 46 untereinander nur schwach ver¬ bunden sind. Die Verbindungen der Neuronen innerhalb eines der beiden Pools sind dagegen stark. Auf diese Weise bilden die Neuronen der beiden Pools zwei Teams, die miteinander in Konkurrenz treten. Die Verbindungen von den Modellpools 45 und 46 zu dem nicht-spezifischen Pool 70 sind in neutraler Stärke (w = 1) ausgeführt. In umgekehrter Richtung sind die Verbindungen des nicht-spezifischen Pools 70 zu den Modell¬ pools 45 und 46 schwach ausgeführt.A synaptic strength of w w stands for a weak synaptic strength, for example of w w = 0.878. A sy- The naptic strength of w s stands for a strong synaptic strength (for example of w s = 2,1). From Figure 3 shows that the model pools 45 and 46 are interconnected only weakly. The connections of the neurons within one of the two pools are strong. In this way, the neurons of the two pools form two teams that compete with each other. The connections from the model pools 45 and 46 to the non-specific pool 70 are made in neutral strength (w = 1). In the opposite direction, the connections of the non-specific pool 70 to the model pools 45 and 46 are weak.
Figur 4 zeigt exemplarisch synaptische Stärken der Verbindun¬ gen zwischen den Pools des zweiten Moduls einschließlich des hemmenden Pools 60 und des nicht-spezifischen Pools 80. DieFIG. 4 shows examples of synaptic strengths of the connections between the pools of the second module, including the inhibiting pool 60 and the non-specific pool 80
Pools der Schichten sind jeweils mit einer starken synapti¬ schen Stärke ws mit sich selbst vernetzt. Die Verbindungen zu den anderen Pools der jeweils gleichen Schicht fallen"dagegen schwach aus (mit ww) . Dies dient ebenfalls der Konkurrenz. Von besonderer Bedeutung sind die Gewichte bzw. synaptischen Stärken Wff und Wf]3. Die synaptische Stärke Wff ist die Stär¬ ke einer vorwärts gerichteten Verbindung (Feed Forward) , zum Beispiel in Höhe von Wff = 2,1. Die synaptische Stärke Wf]3 ist die synaptische Stärke einer rückwärts gerichteten Ver- bindung (Feedback), zum Beispiel Wf]3 = 1,7. Es zeigt sich nun, dass der Eingabepool 15 mit den Regelpools 25 und 27 stark verbunden ist (mit Wff) . In umgekehrter Richtung liegt eine ebenfalls starke, jedoch etwas schwächer ausgeprägte sy¬ naptische Stärke vor (mit Wf]3) . Somit liegt zwischen der Ein- gabeschicht 10 und der Zwischenschicht 20 eine rekurrentePools of the layers are each self-crosslinked with a strong synaptic strength w s . The connections to the other pools the respective same layer fall "on the other hand from weak (w w). This also serves the competition. Of particular importance are the weights or synaptic strengths Wff and Wf]. 3, the synaptic strength is the Wff Staer ¬ ke of a feed forward, for example in the amount of Wff = 2.1 The synaptic strength Wf] 3 is the synaptic strength of a backward connection (feedback), for example Wf] 3 = 1, 7. It now appears that the input pool 15 is strongly connected to the rule pools 25 and 27 (with Wff) .In the reverse direction there is also a strong, but somewhat weaker synaptic strength (with Wf] 3 ) lies between the input layer 10 and the intermediate layer 20 a recurrent
Verbindung vor. Dies bedeutet, dass sich zwischen den beiden Schichten ein dynamisches Wechselspiel entwickelt. Die Einga¬ beschicht 10 übt zwar den größeren Einfluss auf die Zwischen¬ schicht 20 aus, Prozesse in der Zwischenschicht wirken jedoch auch rekurrent auf die Eingabeschicht zurück. Auf diese Weise kann eine selektive Verarbeitung von Eingabeinformationen implementiert werden. Die Regelpools 25 bis 28 weisen wiederum starke vorwärts ge¬ richtete Verbindungen zu den Ausgabepools 35 und 36 auf. Auch hier existieren rückwärts gerichtete, rekurrente Verbindungen (mit ww) . Die Eingabeschicht 10 ist somit rekurrent mit derConnection before. This means that a dynamic interplay develops between the two layers. Although the coating 10 exerts the greater influence on the intermediate layer 20, processes in the intermediate layer also have a recurring effect on the input layer. In this way, selective processing of input information can be implemented. The rule pools 25 to 28 in turn have strong forward directed connections to the output pools 35 and 36. Again, backward, recurrent connections exist (with w w ). The input layer 10 is thus recurrent with the
Zwischenschicht 20, und die Zwischenschicht 20 rekurrent mit der Ausgäbeschicht 30 verbunden. Die synaptischen Stärken aus Figur 3 und Figur 4 entsprechen den Werten, die durch Trai¬ ning des neuronalen Netzes 1 mittels Hebb'schem Lernen zu er- warten wären.Intermediate layer 20, and the intermediate layer 20 recurrently connected to the Ausga layer 30. The synaptic strengths of FIG. 3 and FIG. 4 correspond to the values which would have to be expected by training the neural network 1 by means of Hebbian learning.
Der Modellpool 45 ist mit den Regelpools 25 und 26 stark ver¬ bunden (synaptische Stärke zum Beispiel w = 1,1), wodurch er die Auswahl 22 bildet. Der Modellpool 46 ist mit den Regel- pools 27 und 28 stark verbunden (synaptische Stärke zum Bei¬ spiel w = 1,1), wodurch er die Auswahl 24 bildet. Anschaulich gesehen wird der Eingabepool 15 durch den Regelpool 25 der Auswahl 22 mit dem Ausgabepool 35 verschaltet. Ebenso wird der Eingabepool 16 über den Regelpool 26 der Auswahl 22 mit dem Ausgabepool 36 verschaltet. Die Verschaltung der Eingabe¬ pools 15 und 16 mit den Ausgabepools 35 und 36 erfolgt über die Regelpools 27 und 28 der Auswahl 24 genau umgekehrt. An¬ schaulich gesehen stellen somit die Auswahl 22 und die Aus¬ wahl 24 zwei unterschiedliche Abbildungen von Eingabeinforma- tionen auf Ausgabeinformationen bereit. Welche der beiden Ab¬ bildungen zum Einsatz kommt, hängt davon ab, welcher der bei¬ den Modellpools 45 und 46 aktiviert ist.The model pool 45 is strongly connected to the rule pools 25 and 26 (synaptic strength, for example, w = 1.1), whereby it forms the selection 22. The model pool 46 is strongly connected to the control pools 27 and 28 (synaptic strength for the example w = 1.1), whereby it forms the selection 24. Illustratively, the input pool 15 is interconnected by the rule pool 25 of the selection 22 with the output pool 35. Likewise, the input pool 16 is connected to the output pool 36 via the rule pool 26 of the selection 22. The interconnection of the input pools 15 and 16 with the output pools 35 and 36 takes place via the control pools 27 and 28 of the selection 24 exactly opposite. Thus, in an anecdotal perspective, the selection 22 and the selection 24 provide two different maps of input information to output information. Which of the two images is used depends on which of the two model pools 45 and 46 is activated.
Der Ausgabepool 35 und der Ausgabepool 36 können jeweils eine Situationsbewertung repräsentieren (zum Beispiel posi¬ tiv/negativ) , eine Entscheidung (zum Beispiel kau¬ fen/verkaufen) oder eine Handlung (zum Beispiel einen Schritt vorwärts/rückwärts gehen) .The output pool 35 and the output pool 36 may each represent a situation score (eg, positive / negative), a decision (eg, buy / sell), or an action (eg, go forward / backward).
Gemäß einer Ausführungsform der Erfindung wird die zugeführte Eingabeinformation 2 allen Neuronen des neuronalen Netzes 1 zum Beispiel über jeweils 800 Verbindungen von außerhalb des Netzwerks zugeführt. Neben der Eingabeinformation kann über diese Verbindungen auch ein Hintergrundrauschen zugeführt werden, welches ein spontanes Feuern von Neuronen außerhalb des Netzwerks darstellt.According to one embodiment of the invention, the supplied input information 2 is transmitted to all neurons of the neural network 1, for example via in each case 800 connections from outside the network Network supplied. In addition to the input information, background noise can also be supplied via these connections, which represents a spontaneous firing of neurons outside the network.
Die Zustände, in denen sich das neuronale Netz 1 stabilisie¬ ren kann, können auch als globale Attraktoren bezeichnet wer¬ den. Diese sind jeweils aus einzelnen Attraktoren für jeden Pool zusammengesetzt. Wenn ein Pool in der Konkurrenz ge- winnt, konvergiert die Aktivität in der betreffenden Schicht zu dem betreffenden Attraktor. Der globale Attraktor setzt sich somit aus einer Kombination aktivierter Pools in der Eingabeschicht 10, in der Zwischenschicht 20, in der Ausgabe¬ schicht 30 sowie in der Modellschicht 40 zusammen. Durch die optionalen rekurrenten Verbindungen zwischen den Schichten ergibt sich in einer, in mehreren oder in allen Schichten ein gesteuerter Wettbewerb. Dies führt zu einem autonomen, emer- genten und hochgradig flexiblen Verhalten des neuronalen Net¬ zes 1.The states in which the neural network 1 can stabilize can also be referred to as global attractors. These are each composed of individual attractors for each pool. When a pool wins in the competition, the activity in that layer converges to the attractor concerned. The global attractor is thus composed of a combination of activated pools in the input layer 10, in the intermediate layer 20, in the output layer 30 and in the model layer 40. The optional recurrent connections between the layers give rise to controlled competition in one, several or all layers. This leads to an autonomous, emergent and highly flexible behavior of the neural network 1.
In einem konkreten AnwendungsSzenario wird als Eingabeinfor¬ mation 2 der Verlauf eines Aktienkurses während der letzten 6 Monate zugeführt. Hierdurch wird der Eingabepool 15 akti¬ viert. Weiterhin ist der Modellpool 45 aktiviert. Dieser rep- räsentiert ein Modell, welches von einer positiven Stimmung an der Börse ausgeht. Durch den Modellpool 45 wird der Wett¬ bewerb in der Zwischenschicht 20 dahingehend gesteuert, dass die Pools .in der Auswahl 22 sich in der Konkurrenz durchset¬ zen können. Innerhalb der Auswahl 22 wird der Regelpool 25 aktiviert, welcher mit dem Eingabepool 15 stark verbunden ist. Der Regelpool 25 wiederum aktiviert über eine starke Verbindung den Ausgabepool 35, welcher die Ausgabeinformation "Aktie kaufen" repräsentiert, welche dem neuronalen Netz als Ausgabeinformation 3 entnommen wird. Während der Modellpool 45 aktiv ist, erschöpft sich seine Selbstverstärkung, das heißt die synaptischen Gewichte der inneren Verbindungen des Modellpools 45 nehmen mit der Zeit ab. Wenn die entnommene Ausgabeinformation 3 falsch war, weil der Aktienkurs nach dem Kauf gefallen ist, so wird der hemmende Pool 50 über eine Falsch-Rückmeldung aktiviert. Dieser verstärkt daraufhin sei¬ ne globale Hemmung zu einer vollständigen Hemmung der Modell- pools 45 und 46, die sich auch auf das zweite Modul 6 erstre¬ cken kann. Anschließend unterliegt der ehemals aktive Modell¬ pool 45 in der Konkurrenz mit dem Modellpool 46, da sich die Selbstverstärkung des Modellpools 45 gegenüber der Selbstver¬ stärkung des Modellpools 46 erschöpft hat. Deshalb gewinnt nun der Modellpool 46 in der Konkurrenz. Der Modellpool 46 unterstützt nun die Auswahl 24 in der Zwischenschicht 20. Wird nun der gleiche Kursverlauf als Eingabeinformation 2 zu¬ geführt, wird wiederum der Eingabepool 15 aktiviert. Dieser aktiviert nun den Regelpool 27, da dieser zu der Auswahl 24 gehört, welche durch den Modellpool 46 unterstützt wird. Der Regelpool 27 wiederum aktiviert den Ausgabepool 36. Dieser repräsentiert die Ausgabeinformation "Aktie nicht kaufen", welche im Anschluss als Ausgabeinformation 3 entnommen wird. Das neuronale Netz 1 hat sein Verhalten somit in einem Schritt an den veränderten Kontext, zum Beispiel einen Stim¬ mungsumschwung an der Börse, angepasst.In a concrete application scenario, the course of a stock price during the last six months is fed as input information 2. As a result, the input pool 15 is activated. Furthermore, the model pool 45 is activated. He represents a model that assumes a positive mood on the stock exchange. The model pool 45 controls the competition in the intermediate layer 20 in such a way that the pools 22 in the selection 22 can compete in the competition. Within the selection 22, the rule pool 25 is activated, which is strongly connected to the input pool 15. The rule pool 25 in turn activates the output pool 35 via a strong connection, which represents the output information "buy share", which is taken from the neural network as output information 3. While model pool 45 is active, its self-boosting is depleted, that is, the synaptic weights of the model pool 45's internal connections decrease over time. When the removed Issue information 3 was incorrect because the stock price fell after the purchase, the inhibitory pool 50 is activated via a false feedback. This then amplifies its global inhibition to a complete inhibition of the model pools 45 and 46, which can also extend to the second module 6. Subsequently, the formerly active model pool 45 is in competition with the model pool 46, since the self-amplification of the model pool 45 has exhausted itself compared to the self-boosting of the model pool 46. Therefore now the model pool 46 wins in the competition. The model pool 46 now supports the selection 24 in the intermediate layer 20. If now the same price course is performed as input information 2, the input pool 15 is again activated. This now activates the rule pool 27, since this belongs to the selection 24, which is supported by the model pool 46. The rule pool 27 in turn activates the output pool 36. This represents the output information "Do not buy stock", which is subsequently taken as output information 3. The neural network 1 has thus adapted its behavior in one step to the changed context, for example a change in mood on the stock market.
Geeignete Werte für die synaptischen Stärken können von den genannten Werten abweichen und sind im Experiment ermittelbar bzw. optimierbar. Das generelle Vorgehen hierzu ist in der Schrift [2] beschrieben.Suitable values for the synaptic starches may deviate from the stated values and can be determined or optimized in the experiment. The general procedure for this is described in the document [2].
Die in den Figuren gezeigten Ausführungsformen sind aus¬ schließlich als mögliche Beispiele angeführt.The embodiments shown in the figures are aus¬ finally listed as possible examples.
Insbesondere kann das Auslesen der Ausgabeinformation 3 auch anders realisiert sein. Z. B. ist es denkbar, dass dies aus jeder Schicht oder aus den jeweiligen Pools heraus erfolgt.In particular, the readout of the output information 3 can also be realized differently. For example, it is conceivable that this takes place from each layer or from the respective pools.
Ferner sind mehrere Eingabe-, Ausgabe-, Zwischen- oder Mo¬ dellschichten denkbar. Unterschiedliche Eingabeschichten 10 könnten unterschiedliche Merkmale (Farbe, Form, Größe, Ort, Bewegung, usw.) der Eingabeinformation repräsentieren.Furthermore, a plurality of input, output, intermediate or model layers are conceivable. Different input layers 10 could represent different features (color, shape, size, location, motion, etc.) of the input information.
Unterschiedliche Modellschichten 40 könnten unterschiedliche Aspekte eines Modells (unterschiedliche Dimensionen einesDifferent model layers 40 could have different aspects of a model (different dimensions of a model)
Kontextes) repräsentieren. Z.B. könnte in einem Computerspiel eine Modellschicht 40 speichern, ob der Spieler geübt oder ungeübt ist, sowie eine weitere, welche Strategie der Spieler aktuell verfolgt. Somit könnte das Modell einen Kontext rep- räsentieren, der sich aus unterschiedlichen Aspekten zusam¬ mensetzt.Context). For example, In a computer game, a model layer 40 could store whether the player is practiced or untrained, as well as another which strategy the player is currently following. Thus, the model could represent a context that is composed of different aspects.
Unterschiedliche Ausgabeschichten 30 könnten unterschiedliche Aspekte einer Ausgabeinformation (z.B. Kaufen/Verkaufen, Dringlichkeit, Sicherheit der Empfehlung) repräsentieren.Different issue stories 30 could represent different aspects of issue information (e.g., buy / sell, urgency, security of recommendation).
In diesen Szenarien könnte die Zwischenschicht 20 auch in mehreren Schichten ausgeführt sein. In jedem Fall käme ihr die Aufgabe zu, die zusätzlichen Schichten in sinnvoll mit- einander zu vernetzen.In these scenarios, the intermediate layer 20 could also be implemented in multiple layers. In any case, it would have the task of networking the additional layers in a meaningful way.
Zusätzliche und bestehende Schichten können sowohl nach dem Prinzip der Konkurrenz als auch nach dem Prinzip der Koopera¬ tion organisiert sein. Konkurrenz: Innerhalb einer Schicht treten bestimmte Merkmale oder Merkmalgruppen miteinander in Konkurrenz um Repräsenta¬ tion. Das erzeugt als emergenten Prozess eine Gewichtungskar- te (salicency map) , so dass bestimmte Merkmale intensiver repräsentiert werden als andere. Man erhält eine kontextab- hängige Informationsselektion. Dies kann durch konkurrierende Pools implementiert werden.Additional and existing layers can be organized both according to the principle of competition and according to the principle of cooperation. Competition: Within a shift certain characteristics or feature groups compete with each other for representation. This produces a weighting map (salicency map) as an emergent process, so that certain features are more intensely represented than others. A context-dependent information selection is obtained. This can be implemented by competing pools.
Kooperation: Merkmale können auch dynamisch zu Merkmalgruppen oder Kategorien gebunden werden. Ein Merkmal kann auch so die Repräsentation eines anderen Merkmale begünstigen. Dies kann durch Pools implementiert werden, die mit starken Gewichten untereinander verbunden sind und sich somit gegenseitig un- terstützen. Z.B. können so in der Eingabeschicht 10 mehrere Pools gleichzeitig aktiviert sein und dadurch mehrere Eigen¬ schaften einer Eingabeinformation gleichzeitig repräsentie¬ ren.Cooperation: Features can also be linked dynamically to feature groups or categories. One feature may also favor the representation of another feature. This can be implemented by pools that are connected to each other with strong weights and thus terstützen. For example, several pools can be activated simultaneously in the input layer 10 and thereby simultaneously represent several properties of an input information.
Zusätzliche Schichten können nach dem Prinzip des beeinfluss- ten Wettbewerbs und der beeinflussten Kooperation (biased Competition and Cooperation) implementiert werden: Durch die Verbindung zwischen Schichten kann eine Schicht jeweils den Kompetitionsvorgang in einer oder mehreren anderen Schichten lenken. Dieser Vorgang kann rekurrent sein, so dass durch diesen wechselseitigen Lenkvorgang sukzessive und dynamisch ein immer besserer Abgleich von verschiedenen Merkmal-Räumen der verschiedenen Schichten miteinander entsteht. Insbesonde- re enthält jede Repräsentation, weil sie nur einen Teilaspekt der Umgebung abdeckt, zwangsläufig Mehrdeutigkeiten. Beein- flusster Wettbewerb stellt einen Mechanismus dar, durch den die verschiedenen Schichten durch die Information ihres spe¬ ziellen Merkmalraums Mehrdeutigkeiten in den jeweils anderen Merkmal-Räumen auflösen können. Jede Repräsentation entwi¬ ckelt sich vor dem Kontext aller anderen Repräsentationen. Kooperation kann dann verschiedene Merkmale zu Gruppierungen binden, das heißt zueinander in Beziehung setzen.Additional layers can be implemented according to the principle of influenced competition and biased competition and cooperation: Through the connection between layers, a layer can direct the competition process in one or more other layers. This process can be recurrent, so that successively and dynamically an ever better matching of different feature spaces of the different layers arises with each other through this mutual steering process. In particular, because it covers only a partial aspect of the environment, each representation inevitably contains ambiguities. Influenced competition represents a mechanism by which the various layers can resolve ambiguities in the respective other feature spaces by the information of their particular feature space. Each representation evolves before the context of all other representations. Cooperation can then bind different characteristics to groupings, that is, relate them to one another.
Das Herstellen von Beziehungen kann in dynamischer Weise ge¬ schehen für (a) gegenwärtige Merkmale untereinander,The establishment of relationships can be done in a dynamic way for (a) present characteristics among each other,
(b) gegenwärtige Merkmale mit anderen Merkmalräumen,(b) current features with other feature spaces,
(c) gegenwärtige Merkmale mit vergangenen Werten andere Merk¬ male und Merkmalräume, und (d) dem Gesamtzustand mit zukünf- tigen, aber erwarteten Merkmale. Insbesondere das Miteinbe¬ ziehen der Vergangenheit kann dem kausalen Charakter der Sig¬ nale Rechnung tragen.(c) current features with past values, other features and feature spaces, and (d) the overall condition with future but expected features. In particular, the inclusion of the past can take into account the causal character of the signals.
Dynamische Daten aus technischen Systemen können nach Vorver- arbeitung ggf. zur Dimensionsreduktion als Eingabeinformatio¬ nen in das neuronale Netz 1 eingespeist werden. Dieses kann verschiedene Merkmale extrahieren (z.B. Independent Compo- nents oder nichtparametrische Merkraalvektoren analog zu selbstorganisierenden Merkmalskarten) in einer oder mehreren Eingabeschichten, von denen manche auch mit einer persisten¬ ten Aktivität (Arbeitsgedächtnis-Funktion) ausgestattet sein können. Optimierung des neuronalen Netzes kann durch biolo¬ gisch motivierte Lernregeln (z.B. Hebb-Regel oder spike time dependent plasticity) geschehen, mit denen sich auch Kosten¬ funktionen zur Bewertung dessen, wie gut eine dynamische Auf¬ gabe gelöst wird, aufstellen lassen. Dynamic data from technical systems can be fed into the neural network 1 as input information after pre-processing, if necessary for dimensional reduction. This can extract various features (eg Independent Composites). nents or nonparametric Merkraalvektoren analogous to self-organizing feature maps) in one or more input layers, some of which may also be equipped with a persisten¬ th activity (working memory function). Optimization of the neural network can be achieved by biologically motivated learning rules (eg Hebb rule or spike time dependent plasticity) with which cost functions can also be set up to evaluate how well a dynamic task is solved.
Zitierte LiteraturQuoted literature
[1] Sutton, R. S. und Barto, A. G. (1998): "Reinforcement[1] Sutton, R.S. and Barto, A.G. (1998): "Reinforcement
Learning", Bradford Book, S. 87-160.Learning, "Bradford Book, pp. 87-160.
[2] Szabo, M., Almeida, R., Deco, G. und Stetter, M. (2004) : "(Kooperation and biased competition model can explain attentional filtering in the prefrontal cortex", Eur. J. Neurosci., Vol. 9, S. 1669-1677.[2] Szabo, M., Almeida, R., Deco, G. and Stetter, M. (2004): "(Cooperation and biased competition model can explain attendant filtering in the prefrontal cortex", Eur. J. Neurosci., Vol. 9, pp. 1669-1677.
[3] Brunei, N. und Wang, X. J. (2001) : "Effects of neuro- modulation in a cortical network model of object working memory dominated by recurrent inhibition", Comput. Neu¬ rosci. 11: 63-85.[3] Brunei, N., and Wang, X. J. (2001): "Effects of neuromodulation in a cortical network model of object working memory dominated by recurrent inhibition", Comput. New rosci. 11: 63-85.
[4] Koch, C. und Segev, I (Hrsg.) (2001) : "Methods in Neuro¬ nal Modeling: From Synapses to Networks", MIT Press, Cambridge, MA, Kapitel 1-5. [4] Koch, C., and Segev, I (Eds.) (2001): "Methods in Neuronal Modeling: From Synapses to Networks," MIT Press, Cambridge, MA, chapters 1-5.

Claims

Patentansprüche claims
1. Verfahren zur Reaktion auf Kontextänderungen mit einem neuronalen Netz (1) ,1. A method for responding to contextual changes with a neural network (1),
- wobei einer Eingabeschicht (10) des neuronalen Netzes (1) Eingabeinformationen zugeführt werden;- wherein an input layer (10) of the neural network (1) input information is supplied;
- wobei einer Ausgabeschicht (30) des neuronalen Netzes (1) Ausgabeinformationen entnommen werden; - wobei in dem neuronalen Netz (1) mehrere Modelle gespei¬ chert sind, welche jeweils eine Abbildung der Eingabein¬ formationen auf die Ausgabeinformationen vorgeben;- wherein an output layer (30) of the neural network (1) output information is taken; - wherein in the neural network (1) a plurality of models are stored, each of which predefines a mapping of the input information to the output information;
- wobei jeweils nur ein Modell aktiv ist;- where only one model is active at a time;
- wobei folgende Schritte wiederholt werden: - das neuronale Netz (1) bildet eine zugeführte Eingabein¬ formation (2) mit dem aktiven Modell auf eine Ausgabein¬ formation (3) ab, welche der Ausgabeschicht (30) entnom¬ men wird; - wenn die entnommene Ausgabeinformation (3) für die zuge- führte Eingabeinformation (2) in einem aktuellen Kontext falsch ist, erhält das neuronale Netz (1) eine Falsch- Rückmeldung (4) , woraufhin das neuronale Netz (1) ein anderes Modell aktiviert.- wherein the following steps are repeated: - the neural network (1) forms a supplied input information (2) with the active model on an output information (3), which is taken from the output layer (30); if the extracted output information (3) for the supplied input information (2) is incorrect in a current context, the neural network (1) receives an incorrect feedback (4), whereupon the neural network (1) activates another model ,
2. Verfahren nach Anspruch 1, bei dem aus der entnommenen2. The method of claim 1, wherein taken from the
Ausgabeinformation (3) eine Aktion abgeleitet und ausgeführt wird.Output information (3) an action is derived and executed.
3. Verfahren nach einem der vorangegangenen Ansprüche, - bei dem das neuronale Netz (1) erregende gepulste Neuronen enthält,3. Method according to one of the preceding claims, - in which the neural network (1) contains exciting pulsed neurons,
- bei dem die erregenden gepulsten Neuronen Modellpools (41) bilden, wobei jedem Modell mindestens ein Modellpool (41) zugeordnet ist, - bei dem die Modellpools (41) miteinander konkurrieren, bei dem sich ein, aktiver Modellpool (42) in der Konkurrenz durchsetzt. in which the exciting pulsed neurons form model pools (41), each model being assigned at least one model pool (41), - in which the model pools (41) compete with one another, in which an active model pool (42) prevails in the competition ,
4. Verfahren nach Anspruch 3, bei dem das neuronale Netz (1) hemmende gepulste Neuronen enthält, - bei dem die hemmenden gepulsten Neuronen mindestens einen hemmenden Pool (50) bilden,The method of claim 3, wherein the neural network (1) contains inhibitory pulsed neurons, - in which the inhibitory pulsed neurons form at least one inhibitory pool (50),
- bei dem der hemmende Pool (50) eine globale Hemmung auf die konkurrierenden Modellpools (41) ausübt,in which the inhibiting pool (50) exerts a global inhibition on the competing model pools (41),
- bei dem die Falsch-Rückmeldung (4) den hemmenden Pool (50) aktiviert,in which the false feedback (4) activates the inhibiting pool (50),
- bei dem der aktivierte hemmende Pool (5) eine vollständige Hemmung aller Modellpools (41) durchführt, bei dem die vollständige Hemmung den aktiven Modellpool (42) deaktiviert, - bei dem nach der vollständigen Hemmung ein anderer Modell¬ pool (41) aktiviert wird.in which the activated inhibiting pool (5) performs a complete inhibition of all model pools (41) in which the complete inhibition deactivates the active model pool (42), - in which a different model pool (41) is activated after complete inhibition ,
5. Verfahren nach Anspruch 4,5. The method according to claim 4,
- bei dem sich Synapsen der erregenden gepulsten Neuronen des aktiven Modellpools (42) adaptieren,in which synapses of the exciting pulsed neurons of the active model pool (42) adapt,
- bei dem dadurch rekurrente Gewichte des aktiven Modell¬ pools (42) absinken,in which recurrent weights of the active model pool (42) sink,
- bei dem dadurch der aktive Modellpool nach der vollständi¬ gen Hemmung in der Konkurrenz gegenüber den anderen Mo- dellpools (41) unterliegt.- in which the active model pool is subject to complete inhibition in the competition compared to the other model pools (41).
6. Verfahren nach Anspruch 5, bei dem die Adaption der Sy¬ napsen als kurzzeitige synaptische Depression (STD) implemen¬ tiert wird.6. Method according to claim 5, in which the adaptation of the synapses is implemented as short-term synaptic depression (STD).
7. Verfahren nach Anspruch 3,7. The method according to claim 3,
- bei welchem erregende gepulste Neuronen Regelpools (21) bilden,in which exciting pulsed neurons form control pools (21),
- bei dem jeder Regelpool (21) jeweils eine der Eingabein- formationen mit einer der Ausgabeinformationen verschal¬ tet,in which each control pool (21) in each case connects one of the input information with one of the output information,
- bei dem die Regelpools (21) miteinander konkurrieren, bei dem der aktive Modellpool (42) eine Auswahl (22) von Regelpools (21) unterstützt, bei dem die zugeführte Eingabeinformation (2) einen Regel¬ pool (23) aus der Auswahl (22) von Regelpools (21) akti- viert, bei dem der aktivierte Regelpool (23) die Ausgabeinforma¬ tion (3) aktiviert, bei dem die aktivierte Ausgabeinformation (3) entnommen wird.- in which the rule pools (21) compete with each other, in which the active model pool (42) supports a selection (22) of rule pools (21) in which the supplied input information (2) activates a rule pool (23) from the selection (22) of rule pools (21), in which the activated rule pool (23) activates the output information (3) in which the activated output information (3) is taken.
8. Verfahren nach Anspruch 1, bei dem das neuronale Netz (1) Verschaltungen enthält, welche durch Hebb'sches Lernen ausge¬ bildet werden.8. The method of claim 1, wherein the neural network (1) contains interconnections, which are ausge¬ forms by Hebb'sches learning.
9. Neuronales Netz (1) zur Reaktion auf Kontextänderungen, mit einer EingabeSchicht (10) , der Eingabeinformationen zuführbar sind; mit einer Zwischenschicht (20) , durch die die Eingabein¬ formationen auf Ausgabeinformationen abbildbar sind; - mit einer Ausgabeschicht (30) , an der die Ausgabeinforma¬ tionen entnehmbar sind;9. A neural network (1) for responding to context changes, having an input layer (10) to be fed with input information; with an intermediate layer (20), by means of which the input information can be imaged onto output information; - With an output layer (30) at which the Ausgabeinforma¬ tions are removed;
- mit einer Modellschicht (40) , mit der die Abbildung in der Zwischenschicht (20) abhängig von einem Kontext steuerbar ist.- With a model layer (40), with which the image in the intermediate layer (20) is controllable depending on a context.
10. Neuronales Netz (1) nach Anspruch 9,10. neural network (1) according to claim 9,
- bei dem die Modellschicht (40) erregende gepulste Neuronen enthält, bei dem die Modellschicht (40) mehrere Modellpools (41) enthält, welche aus den erregenden gepulsten Neuronen be¬ stehen,in which the model layer (40) contains exciting pulsed neurons, in which the model layer (40) contains a plurality of model pools (41) which are composed of the exciting pulsed neurons,
- bei dem mit den Modellpools (41) die Abbildung in der Zwi¬ schenschicht (20) abhängig von einem Kontext steuerbar ist.in which, with the model pools (41), the image in the intermediate layer (20) can be controlled as a function of a context.
11. Neuronales Netz (1) nach Anspruch 10, - bei dem das neuronale Netz (1) hemmende gepulste Neuronen enthält,11. neural network (1) according to claim 10, in which the neural network (1) contains inhibiting pulsed neurons,
- bei dem das neuronale Netz (1) einen hemmenden Pool (50) enthält, welcher aus den hemmenden gepulsten Neuronen be- steht,in which the neural network (1) contains an inhibiting pool (50) consisting of the inhibitory pulsed neurons,
- bei dem der hemmende Pool (50) mit den Modellpools (41) verschaltet ist, bei dem der hemmende Pool (50) durch eine Falsch- Rückmeldung (4) aktivierbar ist, wenn eine entnommene Aus- gabeinformation (3) falsch ist.in which the inhibiting pool (50) is connected to the model pools (41), in which the inhibiting pool (50) can be activated by an incorrect feedback (4) if a retrieved output information (3) is incorrect.
12. Neuronales Netz (1) nach Anspruch 9, bei dem ein erstes Modul die Modellschicht (40) aufweist und ein zweites Modul die anderen Schichten (10, 20, 30) aufweist.The neural network (1) of claim 9, wherein a first module comprises the model layer (40) and a second module comprises the other layers (10, 20, 30).
13. Neuronales Netz (1) nach Anspruch 10,13. neural network (1) according to claim 10,
- bei dem die Eingabeschicht (10) für jede Eingabeinformati¬ on einen Eingabepool (11) aufweist, welcher aus erregenden gepulsten Neuronen besteht und durch Zufuhr der jeweiligen Eingabeinformation aktivierbar ist, bei dem die Zwischenschicht (20) Regelpools (21) aufweist, durch welche jeweils eine Eingabeinformation mit einer Ausgabeinformation verschaltbar ist, und wobei die Regel¬ pools (21) aus erregenden gepulsten Neuronen bestehen, - bei dem die Ausgabeschicht (30) für jede Ausgabeinformati¬ on einen Ausgabepool (31) aufweist, welcher aus erregenden gepulsten Neuronen besteht, bei dem die Modellpools (41) mit den Regelpools (21) so verschaltet sind, dass abhängig von der Aktivierung der Modellpools (41) nur eine Auswahl (22, 24) von Regelpools (21) aktivierbar ist,in which the input layer (10) has an input pool (11) for each input information, which consists of exciting pulsed neurons and can be activated by supplying the respective input information, in which the intermediate layer (20) has control pools (21) through which in each case an input information can be interconnected with an output information, and wherein the control pools (21) consist of exciting pulsed neurons, - in which the output layer (30) has for each output information an output pool (31) which consists of exciting pulsed neurons in which the model pools (41) are connected to the rule pools (21) such that, depending on the activation of the model pools (41), only a selection (22, 24) of rule pools (21) can be activated,
- bei dem durch eine zugeführte Eingabeinformation (2) ein repräsentativer Eingabepool (12) aktivierbar ist, welcher die zugeführte Eingabeinformation (2) repräsentiert, - bei dem durch den repräsentativen Eingabepool (12) ein be¬ vorzugter Regelpool (23) aktivierbar ist, welcher zu der Auswahl (22) von Regelpools (21) gehört, welche mit einem aktiven Modellpool (42) verschaltet sind,- In which by a supplied input information (2) a representative input pool (12) can be activated, which represents the input information (2) supplied, - in which by the representative input pool (12) a be¬ preferred rule pool (23) can be activated, which to the Selection (22) of rule pools (21), which are interconnected with an active model pool (42),
- bei dem durch den bevorzugten Regelpool (23) ein repräsen¬ tativer Ausgabepool (32) aktivierbar ist, wobei der reprä- sentative Ausgabepool (32) eine entnehmbare Ausgabeinfor¬ mation (3) repräsentiert.in which a representative output pool (32) can be activated by the preferred rule pool (23), the representative output pool (32) representing a removable output information (3).
14. Neuronales Netz nach Anspruch 9,14. Neural network according to claim 9,
- welches eine oder mehrere zusätzliche Eingabeschichten (10) , Zwischenschichten (20) , Ausgabeschichten (30) , Mo¬ dellschichten (40) oder andere Schichten enthält, wobei die zusätzlichen Schichten die Eingabeinformationen, die Ausgabeinformationen oder andere Informationen spei¬ chern, filtern, bewerten, vernetzen oder kategorisieren oder andere Funktionen übernehmen. - which contains one or more additional input layers (10), intermediate layers (20), output layers (30), model layers (40) or other layers, the additional layers filtering the input information, the output information or other information, rate, network or categorize or take over other functions.
PCT/EP2005/052859 2004-07-09 2005-06-21 Method for reacting to changes in context by means of a neural network, and neural network used for reacting to changes in context WO2006005665A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102004033391.2 2004-07-09
DE102004033391 2004-07-09

Publications (2)

Publication Number Publication Date
WO2006005665A2 true WO2006005665A2 (en) 2006-01-19
WO2006005665A3 WO2006005665A3 (en) 2006-12-07

Family

ID=35448080

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2005/052859 WO2006005665A2 (en) 2004-07-09 2005-06-21 Method for reacting to changes in context by means of a neural network, and neural network used for reacting to changes in context

Country Status (1)

Country Link
WO (1) WO2006005665A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1975857A3 (en) * 2007-03-27 2009-03-25 Siemens Aktiengesellschaft Method for computer-aided processing of measurement values calculated in a sensor network
US7577099B1 (en) * 2006-04-06 2009-08-18 At&T Corp. Method and apparatus for fault localization in a network

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5155801A (en) * 1990-10-09 1992-10-13 Hughes Aircraft Company Clustered neural networks
US5239594A (en) * 1991-02-12 1993-08-24 Mitsubishi Denki Kabushiki Kaisha Self-organizing pattern classification neural network system
EP0574951A2 (en) * 1992-06-18 1993-12-22 Seiko Epson Corporation Speech recognition system
EP1073012A1 (en) * 1999-07-30 2001-01-31 Eidgenössische Technische Hochschule Zürich A method and circuit for neuron-like processing of data
EP1327959A2 (en) * 2002-01-11 2003-07-16 EADS Deutschland GmbH Neural network for modelling a physical system and method for building the neural network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5155801A (en) * 1990-10-09 1992-10-13 Hughes Aircraft Company Clustered neural networks
US5239594A (en) * 1991-02-12 1993-08-24 Mitsubishi Denki Kabushiki Kaisha Self-organizing pattern classification neural network system
EP0574951A2 (en) * 1992-06-18 1993-12-22 Seiko Epson Corporation Speech recognition system
EP1073012A1 (en) * 1999-07-30 2001-01-31 Eidgenössische Technische Hochschule Zürich A method and circuit for neuron-like processing of data
EP1327959A2 (en) * 2002-01-11 2003-07-16 EADS Deutschland GmbH Neural network for modelling a physical system and method for building the neural network

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SZABO MIRUNA ET AL: "COORPERATION AND BIASED COMPETITION MODEL CAN EXPLAIN ATTENTIANAL FILTERING IN THE PREFRONTAL CORTEX" EUROPEAN JOURNAL OF NEUROSCIENCE, OXFORD UNIVERSITY PRESS, GB, Bd. 19, Nr. 6, April 2004 (2004-04), Seiten 1969-1977, XP008069137 ISSN: 0953-816X in der Anmeldung erwähnt *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7577099B1 (en) * 2006-04-06 2009-08-18 At&T Corp. Method and apparatus for fault localization in a network
EP1975857A3 (en) * 2007-03-27 2009-03-25 Siemens Aktiengesellschaft Method for computer-aided processing of measurement values calculated in a sensor network

Also Published As

Publication number Publication date
WO2006005665A3 (en) 2006-12-07

Similar Documents

Publication Publication Date Title
DE102005046747B3 (en) Computer-aided learning of neural networks involves changing cross-links between first and second layers of neurons of neural network based on variable state of neural network which is determined using feature instances and categories
DE102008020379A1 (en) Method for computer-aided control and / or regulation of a technical system
DE19531967A1 (en) Training method for neural network
DE102019209644A1 (en) Method for training a neural network
DE60125536T2 (en) ARRANGEMENT FOR GENERATING ELEMENT SEQUENCES
EP1690219A2 (en) Inference machine
DE10162927A1 (en) Evaluation of images of the brain obtained using functional magnetic resonance tomography
WO2006005665A2 (en) Method for reacting to changes in context by means of a neural network, and neural network used for reacting to changes in context
DE112020005613T5 (en) Neuromorphic unit with crossbar array structure
WO2020178009A1 (en) Training neural networks for efficient implementation on hardware
DE60022398T2 (en) SEQUENCE GENERATOR
Funke Methoden der kognitiven Psychologie
DE102017219269A1 (en) Classification with automatic selection of promising learning data
DE3609925C2 (en)
EP1359539A2 (en) Neurodynamic model of processing visual information
DE102020210700A1 (en) More flexible iterative operation of artificial neural networks
Tutić et al. Soziale Normen
WO2006005669A2 (en) System for extracting and/or evaluating information
DE112020004025T5 (en) Adversarial and cooperative imitation learning for dynamic treatment
DE102020210376A1 (en) Apparatus and method for controlling a hardware agent in a multiple hardware agent control situation
WO2006005663A2 (en) Method for dynamic information selection using a neuronal network, and neuronal network for dynamic information selection
DE102021212906A1 (en) Method of controlling an agent
Maasjosthusmann et al. Explainable Artificial Intelligence: Analyse und Visualisierung des Lernprozesses eines Convolutional Neural Network zur Erkennung deutscher Straßenverkehrsschilder (Explainable Artificial Intelligence: Analysis and Visualization of a Convolutional Neural Network for the Recognition of German Traffic Signs)
DE4400261C1 (en) Artificial neural network for speech and written text processing
DE102017126846A1 (en) Artificial neural network and method for this

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase