WO1998036795A1 - Lernfähiger sensomotorischer encoder für seh- oder hörprothesen - Google Patents

Lernfähiger sensomotorischer encoder für seh- oder hörprothesen Download PDF

Info

Publication number
WO1998036795A1
WO1998036795A1 PCT/EP1998/000968 EP9800968W WO9836795A1 WO 1998036795 A1 WO1998036795 A1 WO 1998036795A1 EP 9800968 W EP9800968 W EP 9800968W WO 9836795 A1 WO9836795 A1 WO 9836795A1
Authority
WO
WIPO (PCT)
Prior art keywords
encoder
stimulation
visual
functions
movements
Prior art date
Application number
PCT/EP1998/000968
Other languages
English (en)
French (fr)
Inventor
Rolf Eckmiller
Original Assignee
Rolf Eckmiller
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to DE19707046A priority Critical patent/DE19707046A1/de
Priority to DE59813735T priority patent/DE59813735D1/de
Priority to NZ337392A priority patent/NZ337392A/en
Priority to CA002281907A priority patent/CA2281907A1/en
Priority to ES98913568T priority patent/ES2277385T3/es
Priority to US09/367,030 priority patent/US6400989B1/en
Priority to AU67223/98A priority patent/AU732190B2/en
Priority to NZ337366A priority patent/NZ337366A/en
Priority to JP53625998A priority patent/JP2001523989A/ja
Priority to EP06001552A priority patent/EP1666088A1/de
Application filed by Rolf Eckmiller filed Critical Rolf Eckmiller
Priority to AT98912345T priority patent/ATE339987T1/de
Priority to IL13151298A priority patent/IL131512A0/xx
Priority to PCT/EP1998/000968 priority patent/WO1998036795A1/de
Priority to AT98913568T priority patent/ATE343410T1/de
Priority to JP53626298A priority patent/JP2001511687A/ja
Priority to BR9807847-0A priority patent/BR9807847A/pt
Priority to EP10009564A priority patent/EP2263746A1/de
Priority to BR9807260-9A priority patent/BR9807260A/pt
Priority to AU64990/98A priority patent/AU6499098A/en
Priority to EP98912345A priority patent/EP0971770B1/de
Priority to ES98912345T priority patent/ES2273410T3/es
Publication of WO1998036795A1 publication Critical patent/WO1998036795A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/36046Applying electric currents by contact electrodes alternating or intermittent currents for stimulation of the eye
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/36036Applying electric currents by contact electrodes alternating or intermittent currents for stimulation of the outer, middle or inner ear
    • A61N1/36038Cochlear stimulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/02Details
    • A61N1/04Electrodes
    • A61N1/05Electrodes for implantation or insertion into the body, e.g. heart electrode
    • A61N1/0526Head electrodes
    • A61N1/0543Retinal electrodes

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Otolaryngology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Prostheses (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Electric Motors In General (AREA)
  • Transmission And Conversion Of Sensor Element Output (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Electrotherapy Devices (AREA)

Abstract

Die Erfindung betrifft einen lernfähigen, sensomotorischen Encoder für eine Sehprothese oder Hörprothese, mit einer zentralen Kontrolleinheit für Signalverarbeitungsfunktionen, Überwachungsfunktionen, Steuerfunktionen und externen Eingriffsfunktionen, sowie mit einer Gruppe von adaptiven spatiotemporalen Filtern zur Umsetzung von Sensorsignalen in Stimulationspulsfolgen, wobei eine bidirektionale Schnittstelle zur Kopplung des Encoders mit einer implantierbaren Mikrostruktur (2) zur Stimulation von Nerven- oder Gliagewebe einerseits sowie zur Funktionsüberwachung von Hirnfunktionen andererseits vorgesehen ist.

Description

Lernfähiger sensomotorischer Encoder für Seh- oder Hörprothesen
Die vorliegende Erfindung betrifft ein Informationsverarbeitungssystem als lernfähiger, sensomotorischer Encoder für eine Sehprothese oder Hörprothese zur bidirektionalen Kopplung mit implantierten Mikrokontakten zur Stimulation von Nervenoder Gliagewebe einerseits sowie zur Funktionsüberwachung von Hirnfunktionen andererseits.
Es sind mehrere Versuche bekannt, Sehprothesen für verschiedene Gruppen von Blinden durch Implantation von Mikrokontakten an der Ausgangsschicht der Retina (RET) oder innerhalb des visuellen Cortex (VCO) zu entwickeln und durch Kopplung dieser Implantate mit externen Signalgebern (Encoder) nützliche visuelle Wahrnehmungen auszulösen. Encoder für implantierbare Sehprothesen werden zum Beispiel in US 5,498,521, US 5,351,314 oder WO95/06288 beschrieben, implantierbare Mikro- kontakte für Retina, visuellen Cortex bzw. auditorische Systeme sind in US 5,597,381, US 5,569,307, US 5,549,658, US 5,545,219, US 5,496,369, US 5,411,540, US 5,215,088, US 5,109,844 und US 4,628,933 beschrieben. Mit neuronalen Netzen und visuellen Systemen befassen sich die US 5,227,886, EP 0435559, US 3,766,311 sowie mit der Ansteuerung von Mikrokon- takten US 5,571,148, US 5,512,906, US 5,501,703, US 5,441,532, US 5,411,540.
Die Zielgruppen von RET-Projekten leiden unter retinalen Degenerationserkrankungen (z.B. Retinitis pigmentosa; Makula Degeneration) , wobei die Schicht der Photorezeptoren degeneriert ist, jedoch zumindest ein Teil der retinalen Ganglienzellen und des dort beginnenden Sehnervs sowie das zentrale Sehsystem noch funktionstüchtig sind. Wie die vorgenannten Druckschriften zeigen, wird an der Entwicklung verschiedener Arten von implantierbaren Mikrokontaktstrukturen (Stimula- tor) , die sich innerhalb des Augapfels an die Ganglienzell- schicht der Retina anschmiegen und an der Entwicklung von drahtlosen Signal- und Energieübertragungssystemen zur Verbindung zwischen dem externen Encoder und dem implantierten Stimulator, oder allgemein dem Interface gearbeitet.
Der Erfinder hat sich die Aufgabe gestellt, einen lernfähigen Encoder für eine an der Retina oder der Sehrinde angekoppelte Sehprothese zur Umsetzung von Bildmustern, oder für eine an geeigneten Bereichen des neuronalen Hörsystems angekoppelte Hörprothese zur Umsetzung von Schallmustern in Stimulationssignale durch adaptive, spatiotemporale Filter mit rezeptiven Feldeigenschaften der entsprechenden kontaktierten sensorischen Neurone (RF-Filter) und deren optimaler Einstellung durch neuronale Netze als lernfähige Funktionsapproximatoren weiterzuentwickeln.
Die Zielgruppen von VCO-Projekten haben typischerweise keine verwertbaren Sehnervfunktionen mehr und erfordern daher eine Implantation von z.B. kammähnlichen Mikrokontaktstrukturen in Regionen des visuellen Cortex, also der Sehrinde, die direkt dem Schadeldach zugewandt sind.
Es sind auch mehrere Arten von Horprothesen (z.B. Cochlear- Implant) mit implantierten Mikrokontakten bekannt geworden, die Tauben eine teilweise Wiedergewinnung von Horwahrnehmun- gen ermöglichen.
Die gegenwartig konzipierten Implantatsysteme sehen keine Informationsverarbeitung der dynamischen Bildmusterdaten innerhalb des Sehsystems (z.B. Retina), jeweils vom optischen Eingang bis zu der durch implantierte Mikrokontakte kontaktier- ten neuronalen Schicht (z.B. Ganglienzellschicht der Retina, oder Neuronenschicht im visuellen Cortex) vor. Statt dessen werden einfache Bildmuster (z.B. Linie) direkt als Stimulati- onssignale an die ortlich verteilten Mikrokontakte ohne individuell angepaßte Informationsverarbeitung als Ersatz für den hier technisch zu überbrückenden Teil des Sehsystems (z.B. Retina) weitergeleitet. Dem so rudimentär und nicht angepaßt erregten Sehsystem fallt dabei die kaum losbare Aufgabe zu, aus den örtlich und zeitlich nicht korrekt vorverarbeiteten oder codierten Signalverlaufen Sehwahrnehmungen zu generieren, die dem Bildmuster hinreichend ähnlich sind. Ferner wird die physiologische Versteilbarkeit der Sehempfmdlichkeit (Leuchtdichte-Adaptation) über etwa 10 Dekaden und die damit verbundene funktioneile Änderung der rezeptiven Feldeigen- schaften m technischen Photosensorsystemen nicht ber cksichtigt.
Die gegenwartig entwickelten Implantatsysteme nutzen die technischen Möglichkeiten zum Einsatz der Sehprothese nicht zur Warnung vor Gefahren und Meldung technisch erkannter Muster an den Implantattrager . Entsprechendes gilt für gegenwartig entwickelte Implantatsysteme für das Horsystem. Das Sehsystem erwartet aufgrund seiner während der Ontogenese- festgelegten und durch langjährige Sehwahrnehmungserfahrungen vor Beginn der Blindheit stabilisierten Struktur und Funktion z.B. von jeder retinalen Ganglienzelle über den Sehnerv eine bestimmte Art der Informationsverarbeitung der Bildmusterdaten. Diese durch die zugehörigen rezeptiven Feldeigenschaften (RF) des Neurons neurophysiologisch umschriebene und für jedes Neuron sehr unterschiedliche Erwartung wird nicht erfüllt, sofern z.B. die Funktion der elektronisch mit starrer Vorverarbeitung simulierten Retina nicht für jeden einzelnen, durch Implantation hergestellten, Stimulationskontakt individuell angepaßt werden kann. Entsprechendes gilt für das Hörsystem.
Das für den normalen Sehvorgang erforderliche Zusammenwirken des von der Retina gespeisten, zentralen visuellen Systems mit einem Augenbewegungssystem und einem Akkommodationssystem wird als sensomotorisches xActive Vision' System bezeichnet. Derartige Systeme für Mustererkennung, Objektverfolgung, Positionserfassung von Objekten, usw. werden in bisherigen Ansätzen nicht berücksichtigt. Das Sehsystem benötigt jedoch Augenbewegungen für alle Sehleistungen und erbringt nicht nur Erkennungsleistungen (was?), sondern vor allem auch Positi- onserfassungsleistungen (wo?) zur Orientierung im Raum, die für Blinde im Bemühen um die teilweise Wiedergewinnung des Sehvermögens oberste Priorität haben. Die Auslösung von visuell induzierten Augenbewegungen ist jedoch bei der durch Implantatsysteme realistischen Stimulation von nur einem kleinen Bruchteil der retinalen Ganglienzellen, oder der Neuronen im visuellen Cortex nicht zu erwarten. Daher kann das Sehsystem mit den bisher in Entwicklung befindlichen Implantaten die auf dem normalen Zusammenwirken mit Augenbewegungen ba- sierenden Sehwahrnehmungen wenn überhaupt, nur sehr schlecht - leisten.
Bei verschiedenen Blinden treten außerdem unerwünschte, nicht visuell induzierte Augenbewegungen mit langsamen und schnellen Phasen auf, die den optimalen Einsatz, also auch die Akzeptanz dieser Art von Sehprothesen erheblich behindern können. Wird z.B. der Encoder mit Photosensorarray am Augapfel befestigt, so wird der gewünschte Fixationsort laufend durch die unerwünschten Augenbewegungen verstellt. Wird andererseits der Encoder z.B. in ein Brillengestell integriert, so kann das Sehsystem die Bildmuster mit den nicht darauf abgestimmten Augenbewegungen als mißverständliche Sehwahrnehmungen z.B. mit Scheinbewegungen auswerten, wie dies z.B. bei Schwindelwahrnehmungen der Fall ist.
Ohne die Möglichkeit von visuell induzierten, realen Augenbewegungen und andererseits zusätzlich im Konflikt mit unerwünschten spontanen Augenbewegungen, ist die visuelle Orientierung im Raum, die Positionserfassung diverser Objekte relativ zur Lage des eigenen Körpers, z.B. für das angestrebte Ergreifen eines Türgriffes mit bisher in Entwicklung befindlichen Sehprothesen, die zur Änderung der Blickrichtung auf Kopf-Rumpfbewegungen angewiesen sind, nur schwer möglich. Die zu implantierenden Strukturen haben eine sehr begrenzte Zahl von Mikrokontakten. Die Zahl der effektiv verwendbaren Mikrokontakte ist noch kleiner, da die Kontakte durch die Implantation nur zum Teil hinreichend günstig relativ zu einer Nervenzelle oder Faser positioniert werden können, daß durch Verwendung einzelner Kontakte, oder Kontaktpaare Nervenakti- onspotentiale mit vertretbar geringen Stimulationsamplituden ausgelöst werden können. Bei den bisherigen Entwicklungen gibt es kaum Möglichkeiten, die Zahl der dauerhaft und selektiv kontaktierten Neuronen über die bei Implantation zufällig geschaffene Zahl hinaus zu erhöhen. Dies ist ein Grund für die nur geringe zu erwartende visuelle Wahrnehmungsqualität. Entsprechendes gilt für Implantatsysteme des Hörsystems.
Die für eine Implantation gegenwärtig entwickelten Mikrokontaktstrukturen sowie Signal- und Energieübertragungssysteme für Sehprothesen funktionieren unidirektional vom externen Encoder zum implantierten Stimulator und bieten daher keine Möglichkeit zur laufenden Überwachung der neuronalen Impulsaktivität der stimulierten Neuronen. Dadurch kann die Stimulationspulssequenz nicht an die Spontanaktivität der Neuronen angepaßt werden. Ferner kann die Auslösung von neurobiologischen Impulsen durch Stimulationspulse nicht direkt überwacht werden. Außerdem fehlt eine sichere Impulsüberwachungsmöglichkeit für eine mögliche zeitliche Abstimmung und Synchronisation der Impulsfolgen mehrerer Neuronen. Entsprechendes gilt für Implantatsysteme des Hörsystems.
Es ist die Aufgabe der vorliegenden Erfindung, diese Nachteile zu beseitigen und einen lernfähigen, sensomotorisc en Encoder zu schaffen.
Diese Aufgabe wird von einer Vorrichtung mit den Merkmalen des Anspruchs 1 gelöst.
Weil der Encoder in bidirektionaler Kopplung mit implantierten Mikrokontakten an der Retina, oder dem visuellen Cortex nach einer - vorzugsweise mit Hilfe neuronaler Netze im Dialog mit dem Implantatträger durchgeführten - Funktionsabstimmung auf den individuellen Bedarf arbeitet, kann durch technische Bildmusterverschiebungen und simulierte Augenbewegungen diverse visuelle Erkennungs-, Verfolgungs- und Positi- onserfassungsaufgaben sowie die Meldung von Gefahren und technisch erkannten Mustern geleistet werden, die Zahl der selektiv erreichbaren Stimulationsorte funktioneil erhöht sowie die neuronale Aktivität einzelner zu stimulierender Neuronen überwacht werden. Ferner kann der hier offenbarte Encoder Funktionen der Leuchtdichteadaptation und der Zusammenstellung eines visuellen Arbeitsbereiches aus Ausschnitten eines großen Funktionsbereiches leisten.
Bei Einsatz für eine Hörprothese wird der lernfähige Encoder entsprechende Leistungen im auditorischen Bereich erbringen.
Bei einer bevorzugten Ausführungsform des Encoders für eine Sehprothese ist ein digitaler Signalprozessor (DSP) , beispielsweise das Modell C80 von Texas Instruments, mit einem Photosensorarray mit Optik als Lichtmusterempfänger, einem Vorverabeitungsmodul für visuelle Muster, einem Pulssignalsender und Empfänger zur bidirektionalen Kommunikation mit der implantierten Struktur, mehreren Signalinterfaces zur Kommunikation mit der Bewertungseingabeeinheit, dem Kopfbewegungssensor, dem Augenbewegungssensor, dem Wahrnehmungs-, Warn- und Erkennungssystem, Muster- und Objektmeldesystem und dem externen Überwachungs- und Steuersystem in einem Brillengestell integriert . Die diversen lernfähigen Informationsverarbeitungsfunktionen insbesondere für RF-Filter, Dialogmodul, Mustererkennung und Active Vision Funktionen sind im DSP mit einer zentralen Kontrolleinheit realisiert. Der Benutzer empfängt einerseits Signale als Stimulationspulse oder Sinneswahrnehmungen vom Encoder empfängt und sendet andererseits Signale über Kopf- und Augenbewegungen, sowie die Bewertungseingabe und neuronale Aktivität an den Encoder. Der Encoder kann aufgrund einer bidirektionalen drahtlosen Signal- und Energieübertragung in einem Brillengestell, einer Haftschale am Auge, am Körper, oder an einem körperfernen Ort befestigt werden. Schließlich umfaßt der spatiotemporale Funktionsraum der RF-Filter z.B. für den Einsatz als Retina En- coder die rezeptiven Feldeigenschaften retinaler Ganglienzellen oder anderer intraretinaler Neuronenklassen der Primatenretina. Entsprechendes gilt für vorteilhafte Ausgestaltungen des Encoders bei Kopplung mit Neuronen der Sehrinde, oder im Fall einer Hörprothese für die Kopplung mit Neuronen des Hörsystems .
Eine vorteilhafte Ausgestaltung eines Verfahrens zur Einstellung der RF-Filter des Encoders im Dialog mit dem Benutzer ist durch Fig. 1 und Fig. 2 schematisch dargestellt. Die RF- Filter sind als spatiotemporale Filter realisiert, deren spa- tiale und temporale Funktionsparameter in einem zur Annäherung der rezeptiven Feldeigenschaften visueller Neuronen hinreichend großen Funktionsraum modifiziert werden, nämlich durch an geeigneten Stellen in den Filteralgorithmen plazierte, extern zugängliche Parameteraustauschpunkte. Ein Mensch teilt als normalsichtige Person oder Implantatträger in einem wahrnehmungsbasierten Dialog mit dem Encoder den Wahrnehmungsvergleich zwischen Soll- und Ist-Muster, z.B. durch eine als Zeile von mehreren Schiebereglern gestaltete Bewertungseingabeeinheit (s. Fig. 2) an ein technisches neuronales Netz mit nichtüberwachter Lernregel mit, und das neuronale Netz legt den nächsten Parametervektor für das RF-Filter sowie das nächste Soll-Muster mit dem Ziel der Verringerung der wahrgenommenen Musterdifferenz im nächsten Dialogschritt fest. Bei der Suche nach optimalen Parametervektoren für die RF-Filter können in dem Dialogmodul von einem neuronalen Netz mit nichtüberwachte Lernen jeweils Parametervektoren erzeugt werden, die für ein gegebenes präsentiertes Lichtmuster zu einer bestimmten Sehwahrnehmung führen und entsprechend subjektiv bewertet werden. Alternativ kann in dem Dialogmodul ein anderes Parameter-Einstellungssystem Sequenzen von Parametervektoren zur virtuellen Bewegung im Funktionsraum des RF-Filters z.B. als kontinuierliche Trajektorien nach Art von- Scanning oder Sweepverläufen als regellose Folgen oder als Folgen von neurophysiologisch besonders typischen Filterfunktionen erzeugen, und der Benutzer während dieser in einem geeigneten Zeittakt ablaufenden Sequenz gelegentlich aus dem Zusammenwirken des gegebenen Lichtmusters, des nachgeschalteten Vorverarbeitungsmoduls, des nachgeschalteten RF-Filters und dem über den zugehörigen Mikrokontakt angekoppelten Teil des zentralen Sehsystems verursachte "sinnvolle" Wahrnehmungen melden. Anschließend wird in dem so gefundenen Bereich des Filterfunktionsraumes eine genauere Parameteroptimierung wahrnehmungsbasiert durchgeführt. Eine vorteilhafte Ausgestaltung der dialogbasierten Einstellung der RF-Filter des Encoders einer Hörprothese erfolgt entsprechend.
Bei der Erzeugung asynchroner Impulsfolgen werden die Ausgangssignale der einzelnen RF-Filter durch geeignete Umsetzer-Algorithmen von den quasikontinuierlichen Zeitfunktionen der RF-Filter in asynchrone Impulsfolgen entsprechend der Aktivität visueller Neuronen im Primatensehsystem gewandelt und Impulsfolgen-Zeitverläufe sowie Zeitpunkte des Auftretens einzelner Impulse durch variable Zeitverzögerungsglieder in der Dialogphase verstellt.
Normalsichtige Personen können einen Wahrnehmungsvergleich zwischen einem Soll-Muster auf dem linken Schirm und einem korrespondierenden Ist-Muster auf dem rechten Schirm durchführen. Eine vorteilhafte Ausgestaltung des Sehsystemmodelles für den Wahrnehmungsvergleich bei normalsichtigen Personen besteht darin, daß es für eine Reihe von RF-Filtern, einzeln oder als Gruppe die jeweils zugehörige inverse Abbildung leistet und dadurch in Hintereinanderschaltung mit dem Encoder jeweils für genau festgelegte Parametervektoren auf dem rechten Schirm ein Ist-Muster mit großer Ähnlichkeit zu dem Soll- Muster erzeugt. Zu Beginn des Dialogs sind die Parametervek- . toren der RF-Filter auf beliebige Anfangswerte gestellt, so daß zunächst ein deutlicher Unterschied zwischen den Mustern besteht, der jedoch im Verlauf des Dialogs mit nichtüberwach- tem Lernen laufend geringer wird.
Die Funktionsanpassung der RF-Filter für Implantatträger im wahrnehmungsbasierten Dialog erfolgt im Vergleich zur Funktionsanpassung für normalsichtige Personen dadurch, daß die Ist-Wahrnehmung nicht auf einem Monitor, sondern nur dem Implantatträger intern zugänglich ist und daß die Soll- Wahrnehmung dem Implantatträger z.B. als Sprachinformation oder als taktiles Berührungsmuster auf der Haut vermittelt wird. Beim Einsatz in Hörprothesen ergibt sich Entsprechendes, wobei statt des nicht zugänglichen Hörorgans z.B. neben dem Tastsinn der hier verfügbare Gesichtssinn zur Übermittlung der Soll-Wahrnehmung verwendet werden kann.
Die zeitliche Kopplung der von mehreren RF-Filters des Encoders zur Auslösung von Nervenzellimpulsen erzeugten asynchronen Impulsfolgen besteht darin, daß die Sendezeitpunkte der einzelnen Impulssignale durch steuerbare Zeitverzögerungsglieder so variiert werden, daß sich eine zeitliche Kopplung bis hin zum genau synchronen Auftreten ergibt, daß die Variation der Zeitverzögerung vom Implantatträger gesteuert wird, im Dialog wahrnehmungsbasiert über ein neuronales Netz erfolgt oder extern gesteuert wird, daß die Wahl der zeitlich zu koppelnden Impulsgruppen sowohl vom RF-Filter kommende als auch im Interface registrierte Impulse berücksichtigen kann und daß angesichts der sehr unterschiedlichen momentanen Impulsraten der verschiedenen RF-Filter geeignete Kriterien für die Beteiligung einzelner Impulse an zu koppelnden Impulsgruppen festgelegt werden. Zur funktionellen Erhöhung der Zahl und Trennschärfe der se- . lektiv erreichbaren Stimulationsorte bei einer gegebenen Zahl von stationär implantierten Mikrokontakten werden die Impulssignale von einem gegebenen RF-Filter an mehrere, örtlich benachbarte Mikrokontakte geleitet. Die aufgrund der Encoderbefehle genau für jeden Mikrokontakt festgelegten und entsprechend im Interface bezüglich Stromamplitude, Polarität und Phasenlage decodierten Stimulationszeitfunktionen charakteristische Zeitverläufe des elektromagnetischen Feldes im Bereich der zu stimulierenden Neuronen bewirken, daß diese durch Superposition aufeinander abgestimmter Stimulationssignale an mehreren Mikrokontakten bewirkten Feldverteilungen örtlich und zeitlich selektiv neuronale Impulserregungen auslösen, daß die selektiven Stimulationsorte durch geeignete Variation der superponierten Stimulationssignale schnell gewechselt werden können und daß die entsprechende Variation diversen Parameter der aufeinander abgestimmten Stimulationssignale im wahrnehmungsbasierten Dialog mit dem Implantatträger über ein neuronales Netz, oder andere Signalvariationsverfahren wie z. B. eine kontinuierliche, sweepartige automatische Verstellung der Funktionsparameter der in Überlagerung auf das Nervengewebe einwirkenden Stimulationsimpulse an benachbarten Elektroden zur Bestimmung möglichst vieler, zu selektiver und trennscharfer neuronaler Erregung führender, Stimulationsorte erfolgt. Ferner wird durch Vergleich registrierter neuronaler Impulse mit den Stimulationssignalen die Optimierung der Stimulationszeitfunktionen bezüglich angestrebter Einzelzellselektivität und dauerhafter Bioverträglichkeit verbessert.
Zur Simulation von Augenbewegungen zum Einsatz des Encoders in einer Sehprothese wird eine Bildmusterverschiebung elektronisch in der Eingangsstufe des Encoders durch optische Va- riation der Blickrichtung z.B. mit Hilfe bewegter Spiegel oder durch Bewegung der Photosensoren zur Simulation von Augenbewegungen realisiert. Kopfbewegungen und Augenbewegungen werden durch mehrdimensional funktionierende, mikrominiaturisierte Bewegungsdetektoren detektiert und eine neuronale oder konventionelle Bewegungsregelung bzw. Steuerung wird unter Verwendung der detektierten Kopf- und Augenbewegungssignale und der Bildmusterverschiebung realisiert. Schnelle und langsame Augenbewegungen für Aufgaben der Mustererkennung, schnellem Umherblicken oder Augenfolgebewegungen werden erzeugt, und durch geeignete Augenbewegungssequenzen mit schnellen und langsamen Phasen erfolgt eine optimale Anpassung des sensorischen Datenstromes an die Aufnahmebereitschaft des zentralen Sehsystems. Bezüglich der Erzeugung von Augenfolgebewegungen besteht eine vorteilhafte Ausgestaltung darin, daß ein lernfähiger, neuronaler Prädiktor die zunächst unbekannte Bewegungszeitfunktion des zu verfolgenden Objektes aus dem Positions- und Bewegungsfehler seiner Projektion auf dem Photosensor-Array erfaßt, mit Hilfe geeigneter nichtlinearer, lernfähiger Prädiktions-Algorithmen unter Berücksichtigung der analysierten Frequenzanteile der Objektbewegung intern mit rasch zunehmender Gewißheit eine Objektverfol- gungs-Zeitfunktion mit minimaler Verzögerung bzw. sogar mit geringer Voreilung generiert und bei vorübergehendem Verschwinden des verfolgten Objektes z.B. ähnlich wie bei Augen- folgebewegungssystem von Primaten eine Bewegungszeitfunktion erzeugt, die je nach Art des Objektes zu einer Fortsetzung der Verfolgung bei Wiederauftauchen des relativ zum Sensor- array bewegten Objektes mit minimalem Positions- und Bewegungsfehler führt.
Zur Detektion von Augen- und Kopfbewegungen und zur Kompensation unerwünschter Augenbewegungen werden unter Verwendung der detektierten Kopf- und Augenbewegungssignale und der si- - mulierten Augenbewegungen mit Hilfe einer neuronalen oder konventionellen Bewegungsregelung bzw. Steuerung schnelle und langsame Augenbewegungen erzeugt. Mit Hilfe des Regelkreises werden nach einer entsprechenden Lernperiode unerwünschte Augenbewegungen kompensiert und daß ein aus Kopfbewegungsdetektor, Bildmusterverschiebung und einem neuronalen Netz bestehender, in einer Lernphase optimierter Regelkreis eine hinreichend gute Simulation des vestibulookulären Reflexes (also der automatisch reflexartigen Stabilisierung der Blickrichtung im Raum durch Augenbewegungen, die den auftretenden Kopfbewegungen genau entgegenwirken) leistet die Lagestabilisierung der Bildmuster bei natürlichen Kopf-Rumpfbewegungen durch entsprechend kompensatorische Augenbewegungen.
Simulierte Augenbewegungen sowie kompensatorische Augenbewegungen sind als separat wählbare Programme verfügbar. Die einzelnen Bewegungs- und Verstellungsmoden können als separate, oder kombinierte Programme vom Implantatträger gewählt, einem automatischen Betrieb zugewiesen oder extern festgelegt werden.
Der Implantatträger kann durch eine mitgeführte Befehlseingabeeinheit, z.B. als Manipulandum mit Tastatur, die gewünschten Active Vision' Funktionen, wie etwa Umherblicken, oder Objektverfolgung anwählen.
Die laufende Übermittlung der aktuellen Position von visuell oder auditorisch erfaßten Objekten im Raum an den Implantatträger besteht darin, daß die vom Encoder unter Auswertung von Bildmuster-, Schallmuster-, Augen- und Kopfbewegungen ermittelte Objektposition mit Hilfe eines geeigneten, mitgeführten Signalgebers an ein geeignetes Sinnesorgan, z.B. den Tastsinn, gemeldet wird und daß der Encoder durch interne Mu- stererkennungsprogramme, insbesondere in Verbindung mit automatisch ablaufenden Augenbewegungen, den Implantat-Träger -vor Hindernissen bzw. Gefahren warnt sowie Art und Position technisch erkannter Muster oder Objekte meldet.
Ein Überwachungssystem für eine teilweise sensomotorisch autonom agierende implantierte Struktur des Encoders besteht darin, daß die implantierten Mikrokontakte sowohl zur Stimulation, als auch zur Registrierung neuronaler Impulse verwendet, daß die registrierten Impulse und weiteren physikalischen oder chemischen Signale von der implantierten Struktur durch geeignete Vorverstärker und optische oder elektromagnetische Sender an den Encoder gemeldet und daß dort die registrierten neuronalen Signale für verschiedene Zwecke der Encoderfunktion weiterverarbeitet werden.
Zur technischen Anpassung des Leuchtdichte-Arbeitsbereiches aus einem z.B. über sechs bis zehn Leuchtdichtedekaden reichenden Funktionsbereich des Photosensorarrays, der sowohl große Teile des skotopischen Bereiches der Dunkeladaptation als auch des photopischen Bereiches der Helladapation umfaßt, wird eine schnell verstellbare elektronische Abbildung auf einen internen Arbeitsbereich für den Encoder bezüglich Größe und Adaptationsleuchtdichte wahrnehmungsbasiert, automatisch gewählt oder vom Benutzer eingestellt. Dadurch werden visuelle Szenen von sehr unterschiedlicher Leuchtdichte in den jeweiligen Arbeitsbereich komprimiert und Kontrastoptimierung sowie Blendungsvermeidung erzielt. Ferner besteht eine vorteilhafte Ausgestaltung darin, daß die RF-Filterfunktionen z.B. entsprechend neurobiologisch bekannten Verläufen mit dem Adaptationsbereich verstellt werden können.
Bei einer vorteilhaften Ausführungsform ist ein Vorverarbeitungsmodul vorgesehen, das zur Erkennung charakteristischer Muster und/oder zur Datenreduktion eingerichtet ist. Dabei kann das Vorverarbeitungsmodul helle und dunkle Bildbereiche unterschiedlicher Beleuchtung erkennen, voneinander abgrenzen und zu einem Gesamtbild mit jeweils regional optimalem Kontrast integrieren, ebenso können nahe und entfernt liegende Bildbereiche voneinander getrennt bezüglich Scharfeinstellung optimiert und danach wieder als Gesamtbild integriert werden, und schließlich können charakteristische Muster wie z. B. Warnschilder hervorgehoben werden. Diese Vorverarbeitung kann zur Verbesserung der Bilddarstellung, aber auch zur Erzeugung von Warnhinweisen sowie zur Datenreduktion im Kommunikationskanal zwischen der Kamera und dem Encoder dienen.
Weiter ist es von Vorteil, wenn in einem Verfahrensablauf die Adaptation der Akkommodation zunächst, beispielsweise im Vordergrund, scharf eingestellt werden, diese Bereiche gespeichert werden und dann zweite Bereiche des Blickfeldes als Bild scharf eingestellt werden, beispielsweise der Hintergrund eines Blickfeldes. Die dabei unscharf werdenden ersten Bereiche werden aus dem zweiten Bildmuster ausgeblendet und durch die ersten gespeicherten, scharfen Bereiche ersetzt. Hierdurch wird eine im Rahmen der geometrischen Optik nicht erreichbare Tiefenschärfe erzeugt. Bei sich zyklisch wiederholendem Ablauf dieser Verfahrensschritte und einem entsprechenden Bildausgleich kann dieser Vorgang von einem Benutzer unbemerkt bleiben, so daß auch bei geringen Lichtstärken und langen Brennweiten der zugehörigen Optik ein Bild von großer Tiefenschärfe scheinbar erreicht wird.
Das lernfähige Vorverarbeitungsmodul verarbeitet das Bildmuster oder Schallmuster durch neuronale Netze oder in Hardware verfügbare Vorverarbeitungs-Algorithmen für eine Sehprothese insbesondere bezüglich Farbe, Kontrast, Kantendetektion, Segmentierung und Figur-Hintergrund Trennung oder für eine Hör- prothese z. B. bezüglich Unterdrückung von Störgeräuschen, unerwünschten Formanten und Separation einzelner Schallquellen, derart, daß das nachgeschaltete RF-Filter Array erheblich vereinfachte und teilweise aus dem Musterraum in einen Merkmalsraum abgebildete Bildmuster oder Schallmuster erhält, die dem kontaktierten Teil des Sehsystems bzw. Hörsystems möglichst gut angepaßt sind. Die verschiedenen Vorverarbeitungsfunktionen werden vom Benutzer direkt oder durch wahrnehmungsbasierten Dialog eingestellt bzw. gewählt oder automatisch eingestellt. Die Übermittlung eines derart vereinfachten Bildes an den Retinaencoder ist für die Gestalterkennung auch bei einer beschränkten Anzahl von kontaktierten Nervenzellen des Sehsystems vorteilhaft. Bei der Vorverarbeitung für Hörprothesen ergeben sich entsprechenden Vorteile, wenn komplexe Schallmuster im Wege der Vorverarbeitung für die Spracherkennung aufbereitet werden.
Im folgenden wird eine Ausführungsform der erfindungsgemäßen Encodervorrichtung und des zugehörigen Verfahrens anhand der Zeichnung erläutert. Es zeigen:
Fig.l: eine Sehprothese am Beispiel eines Retina Implants;
Fig.2: einen lernfähigen Encoder mit Dialogsystem; sowie
Fig.3: Schema der Detektoren von Kopfbewegungen und Augenbewegungen, des Retinaencoders vor einem Auge sowie einer Halsmanschette zur taktilen Rückmeldung von Obj ektpositionen;
Fig. 4: eine schematische Darstellung einer implantierten Mikrokontaktstruktur zur Stimulation von nicht unmittelbar kontaktiertem Nervengewebe; Fig. 5: die Darstellung einer Szene mit sehr unterschiedlir chen Helligkeitsbereichen und Bereichen unter- ■ schiedlicher Fokussierungsentfernung; sowie
Fig. 6: den Verlauf der Helligkeitsstufen in der Kameraabbildung für vier verschiedene Bildbereiche aus Figur 5.
Fig. 1 zeigt schematisch eine Sehprothese am Beispiel eines Retina Implants mit einem in einem Brillengestell befestigten, lernfähigen, sensomotorischen Encoder mit Bildverschiebung, einem nahe der Ganglienzellschicht im Auge implantierten Interface für Stimulation und Registrierung als Mikrokon- taktstruktur 2 mit Zusatzelektronik und einer bidirektionalen, drahtlosen Signal- und Energieübertragung zwischen Encoder und Interface. Die einzelnen spatiotemporalen Filter (RF-Filter) des Encoders mit jeweils etwa runden Ausschnitten des Photosensorarrays 4 in der Eingangsebene (links) und zugehörigen Signalausgängen in der Ausgangsebene (Mitte) repräsentieren typische rezeptive Feldeigenschaften z.B. von Ganglienzellen der Primatenretina, oder von Neuronen im visuellen Cortex und sind durch einen Parametervektor individuell funktioneil verstellbar. Das Interface empfängt nicht nur Stimulationssignale vom Encoder, sondern sendet seinerseits auch registrierte neuronale Impulssignale an den Encoder. Die zusätzlich zum lernfähigen Encoder gehörenden Komponenten, wie z.B. die zentrale Kontrolleinheit, oder das den RF-Filtern vorgeschaltete Vorverarbeitungsmodul sind in Fig. 1 nicht dargestellt .
Fig. 2 zeigt das Schema eines Encoders 1 mit Dialogsystem in Kopplung mit dem zentralen Sehsystem, entweder als Modell (Einsatz bei normalsichtiger Person) , oder als reales System von der Ebene der implantierten Mikrokontakte bis zur visuel- len Wahrnehmung (Einsatz bei Implantatträger) . Der Winkel als exemplarisches Bildmuster auf dem Photosensorarray (links) repräsentiert gleichzeitig ein Sollmuster auf einem Monitor, welches sich nach rechts oben bewegt Auf dem anschließenden internen Bildmusterarray, welches elektronisch im Encoder realisiert ist, bewegt sich der Winkel in dem Beispiel von einer anderen Ausgangsposition aus in eine andere Richtung, um die Funktion einer technischen Bildverschiebung nach Anspruch 18 anzudeuten. Der Schirm rechts zeigt das zugehörige Ist-Bildmuster und repräsentiert entweder einen zweiten Monitor (normalsichtige Person), oder eine virtuelle Projektion des visuellen Wahrnehmungsraumes (Implantatträger). Die sich von links oben nach rechts unten bewegende elliptische Scheibe repräsentiert das korrespondierend wahrgenommene Ist- Bildmuster. Der Mensch (unten rechts) artikuliert seine subjektive Bewertung des Vergleiches zwischen Soll- und Ist- Muster über eine mehrkanalige Bewertungseingabe. Das Dialogmodul als neuronales Netz mit Entscheidungssystem (unten) bildet die Ausgangssignale der Bewertungseingabe auf einen Parametervektor zur Verstellung der RF-Filter Bei Austausch von Bildmustern durch Schallmuster und des Sehsystems durch das Hörsystem gilt Fig. 1 entsprechend für den Einsatz des Encoders für Hörprothesen.
Fig. 3 zeigt schematisch eine vorteilhafte Ausgestaltung des Encoders bezüglich der Positionierung eines mehrdimensional funktionierenden Kopfbewegungssensors K oberhalb des Ohres, eines mehrdimensional funktionierenden Augenbewegungssensors A sowie den in einem Brillengestell integrierten Encoder mit angedeutetem bewegtem Bildmuster. Eine Halsmanschette H zur Erzeugung von lokalen taktilen Empfindungen z.B. durch Vibration gibt dabei dem Benutzer Informationen über die relative Lage eines Objekts zu ihm selbst. Wandert ein vor ihm liegen- des Objekt nach links aus dem Blickfeld, so wandert der auf dem Hals erzeugte Vibrationsbereich ebenfalls nach links, wie es in Fig. 3 angedeutet ist.
Die Figur 4 zeigt eine veranschaulichte Darstellung von Mikrokontakten 6, die in Nervengewebe 8 eingreifen. Im vorliegenden Beispiel sind drei Mikrokontakte 16, 17, 18 in das Nervengewebe 8 implantiert und dort mehr oder weniger zufällig nahe bestimmten Nervenzellen positioniert. Die Mikrokon- taktstruktur 6, 16, 17, 18 ist in jedem Fall wesentlich grober als die Matrix der Nervenzellen 8. Die Mikrokontakte 16, 17, 18 werden über den Stimulator 12 mit Signalen Sl, S2 und S3 versorgt.
Um eine gezielte neuronale Anregung zu schaffen, muß beispielsweise ein Stimulationsfokus F erreicht werden, der nicht unmittelbar von einem Mikrokontakt betroffen werden kann. Der Stimulationsfokus F kann aber erreicht werden, indem die Signale Sl, S2 und S3 mit unterschiedlichen Stärken, Zeitverläufen und vor allen Dingen zeitlichen Abständen zueinander zu den Elektroden 16, 17 und 18 geleitet werden. Die Überlagerung der erzeugten Signale kann dann so eingerichtet werden, daß das Zusammentreffen der Signale im Bereich des angestrebten Stimulationsfokus F die Reizschwelle einzelner oder weniger Nervenzellen überschreitet, während die Addition der Signalverläufe im übrigen Bereich des Nervengewebes unterhalb der Reizschwelle bleibt.
Durch Änderung der zeitlichen Abfolge und des zeitlichen Signalverlaufs der verschiedenen aufeinander abgestimmten Signale kann auch der Stimulationsfokus von F nach Fλ verlagert werden. Für den Abgleich dieser Anregungsfunktionen, die einen Stimulationsfokus erreichen, der nicht unmittelbar mit Elektroden in Verbindung steht, ist ein Lernvorgang erforder- lieh. Da man nicht genau weiß, welcher Stimulationsfokus F, . Fλ für eine bestimmte neurale Anregung angesprochen werden muß, kann die lernfähige sensomotorische Kontrolleinheit nur ein bestimmtes Signalmuster anbieten, das der Implantatträger über eine Sinneswahrnehmung oder eine andere Sensordatenauswertung dann beurteilt. Ein zweites Signalmuster, das gegenüber dem ersten verändert wurde, wird dann ebenfalls daraufhin beurteilt, ob es die gezielte neurale Anregung erreicht oder nicht. Der Benutzer braucht lediglich zu sagen, ob das spätere Signalmuster besser oder schlechter als das vorherige geeignet ist. Mit dem Regelmechanismus eines neuronalen Netzes wird im Laufe des Regelvorgangs eine optimale Signal- Zeitfunktion für die Elektroden 16, 17, 18 zur Anregung des Stimulationsfokus F ermittelt.
Die Figur 5 zeigt eine durch die Fotosensoren in der Praxis wahrgenommene Szene, bei der eine Terrassentür 30 aus einem Raum heraus betrachtet wird. Die Tür 30 weist ein Fenster 31, ein Schlüsselloch 32 und ein Türblatt 33 auf. Vor der Tür hängt eine Spinne 34, und durch das Fenster 31 ist eine Strandszene 35 sichtbar.
Die Beleuchtungsunterschiede in dieser Szene liegen zwischen etwa 10"1 cd/m2 im Bereich des Türschlosses über 10" cd/m2 im Bereich der Spinne und 101 cd/m2 im Bereich des Türblattes bis hin zu 104 - 10" cd/m? im Außenbereich. Derartige Helligkeitsunterschiede sind simultan mit herkömmlichen Kameras und im übrigen auch mit dem menschlichen Auge nicht sichtbar. Die Helligkeitsanpassung erfolgt immer nur in dem jeweils betrachteten Bereich.
In der Figur 6 ist in Gestalt eines Diagramms dargestellt, wir das Vorverarbeitungsmodul der Kamera 1 aufgrund seiner Mustererkennungsfuktionen die einzelnen Bereiche voneinander abgrenzt und mit unterschiedlichen Funktionen in Helligkeitsr stufen der Kameraabbildung umsetzt. Auf der x-Achse ist die Leuchtdichte in cd/m2 über insgesamt 9 Dekaden aufgezeichnet, so wie sie im realen Bild der Figur 5 auftritt. Die y-Achse zeigt die 256 relativen Einheiten der Helligkeitsinformation, die von der Kamera bzw. deren Vorverarbeitungsmodul der Bilddarstellung zugewiesen wird. 256 Einheiten entsprechen einer Helligkeitsmodulation von 8 Bit.
Eine erste Leuchtdichtekurve L32 zeigt den Bereich der Leuchtdichte des Türschlosses 32, abgebildet auf die 256 relativen Helligkeitsstufen der Kameraabbildung. Entsprechende Helligkeitskurven L33 für das Türblatt 33, L34 für die Spinne 34 und L35 für den Außenbereich 35 sind ebenfalls dargestellt .
Das Vorverarbeitungsmodul erkennt in der eingehenden Abbildung unterschiedliche, konturenscharf voneinander abgegrenzte Bereiche mit den vier unterschiedlichen Helligkeitsbereichen. Diese Bereiche werden rechnerisch voneinander getrennt und jeweils mit optimaler Auflösung auf die 256 Helligkeitsstufen der Kämeraabbildüng transponiert. Im Ergebnis zeigt sich dem Betrachter der Szene gemäß Figur 5 ein Bild, bei dem die Bildbereiche 32, 33, 34 und 35 in der Darstellung gleich hell und mit entsprechender Strukturierüng in den verschiedenen Helligkeitsstufen dargestellt werden. Eine solche Darstellung kann ungewohnt sein, sie bietet aber einen Detailreichtum in verschiedenen Regionen, der weder mit dem menschlichen Auge noch mit herkömmlichen Kamerasystemen simultan darstellbar ist.
Die Abbildung gemäß Figur 5 zeigt auch Objekte unterschiedlicher Distanz. So sind die Objekte 32, 33 und 34 beispielsweise auf einer Entfernung von 2 m vom Betrachter angeordnet, während die dem Außenbereich 35 zugeordnete Palme 36 in einer Entfernung von 40 m stehen kann. Mit herkömmlichen Kameraobjektiven ist es in der Regel nicht möglich, beide Objekte 34 und 35 gleichzeitig scharf zu stellen. Die verfügbaren Tiefenschärfenbereiche reichen hierfür in der Regel nicht aus.
Der lernfähige sensomotorische Encoder kann gemeinsam mit dem Vorverarbeitungsmodul zunächst den entfernt liegenden Bereich 35 scharf stellen und dort konturenscharf abgegrenzte Regionen (Palme) erkennen und speichern. Sodann kann ein zweiter Entfernungsbereich gewählt werden, bei dem die Spinne 34 scharf eingestellt wird, während der Bereich 35 unscharf wird. Das Vorverarbeitungsmodul kann diesen Umstand erkennen und anstelle des unscharf gewordenen Bereichs 35 den zuvor ermittelten und gespeicherten scharfen Bildinhalt rechnerisch in das auf kurze Entfernung fokussierte Bild einfügen. Diese Abfolge kann in einer Art Fokusscanning zyklisch wiederholt werden, so daß ständig aus verschiedenen Fokussierungsentfer- nungen scharfe Bereiche ermittelt, gespeichert und zu einem insgesamt scharfen Bild zusammengefügt werden. Die Tiefenschärfe, die auf diese Art und Weise virtuell erreichbar ist, übersteigt diejenige eines normalen optischen Systems um ein Vielfaches. Bei ausreichender Wiederholfrequenz des Verfahrensablaufs ist für den Benutzer das erzeugte Bild von einem realen Bild nur anhand der besonders großen Tiefenschärfe zu unterscheiden .
Erfindungsgemäß wird ein Encoder vorgeschlagen, der diverse Funktionen durch neuronale Netze im Dialog mit dem Implantatträger optimiert, bei dem verschiedene Funktionsmoden angewählt sowie die Positionen erfaßter Objekte wahrgenommen werden können und der vor Hindernissen warnt, die technische Erkennung von Mustern meldet sowie die Zahl der selektiv erreichbaren Stimulationsorte funktioneil erhöht und die neuro- nale Aktivität einzelner Neuronen überwacht. Die implantierte Struktur kann unter Verwendung geeigneter sensorischer und aktorischer Komponenten sowie eines lernfähigen Kontrollsystems teilweise autonom sensomotorisch agieren.
Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung sind den Unteransprüchen entnehmbar.
Der lernfähige Encoder zeichnet sich gegenüber den bekannten Sehprothesensystemen durch eine Reihe von wesentlichen Vorteilen aus. Erstmals wird hier ein Encoder vorgeschlagen, der bereits von normalsichtigen Personen vortrainiert und anschließend vom Implantatträger dem Funktionsbedarf individuell angepaßt werden kann. Erstmals wird hier ein Encoder offenbart, der sowohl Augenbewegungsfunktionen leisten als auch unerwünschte Augenbewegungen kompensieren kann. Ferner wird erstmals ein Encoder offenbart, der die Zahl der selektiv erreichbaren Stimulationsorte funktioneil erhöht und sich auch später an neue Stimulationsbedingungen anpassen kann. Ferner wird erstmals ein Encoder offenbart, der bidirektional funktioniert, also neben der Stimulationsfunktion auch eine Überwachung und Auswertung der neuronalen Aktivität der zu stimulierenden Neuronen gestattet. Entsprechende Vorteile ergeben sich bei Einsatz des lernfähigen Encoders gegenüber den bisher entwickelten Hörprothesensystemen.
Die Anpassungsfähigkeit der Abbildungsfunktionen der einzeln justierbaren spatiotemporalen Filter des Encoders mit rezeptiven Feldeigenschaften (RF-Filter) im gesamten neurophysio- logisch relevanten Funktionsraum wird im Verband mit neuronalen Netzen oder anderen Parametereinstellverfahren beim Einsatz für Seh- oder Hörprothesen sichergestellt. Die individuell im wahrnehmungsbasierten Dialog festzulegen- . den Abbildungsfunktionen der einzelnen RF-Filter werden den vom Sehsystem erwarteten rezeptiven Feldeigenschaften hinreichend ähnlich, passen sich also der Funktion des aus Hintereinanderschaltung von Encoder und angekoppeltem zentralem Sehsystem bestehenden visuellen Systems an. Dies bedeutet einerseits, daß der durch RF-Filter bereitgestellte, spatiotemporale Funktionsraum den neurophysiologisch relevanten Funktionsraum einschließt und andererseits, daß die RF-Filter durch Parameterverstellung mit Hilfe eines neuronalen Netzes eine kontinuierliche Bewegung im Funktionsraum mit geeigneten Einstellverfahren gestatten. Entsprechendes gilt bei Einsatz des Encoders in Hörprothesen.
Bereits im Einsatz mit normalsichtigen Personen wird eine sinnvolle Voreinstellung der RF-Filter in Anlehnung an entsprechende neurophysiologische Daten zur Funktion des Sehsystems bzw. Hörsystems von Primaten vorgenommen. Das Dialogverfahren wird dazu mit den zugehörigen Komponenten unter realistischen Bedingungen durch Simulation des Wahrnehmungsprozesses erprobt. Entsprechendes gilt bei Einsatz des Encoders in Hörprothesen.
Die den einzelnen Mikrokontakten zugeordneten RF-Filter werden individuell im Dialog zwischen Encoder und Implantatträger auf optimale visuelle bzw. auditorische Wahrnehmungsqualität abgestimmt.
Im Unterschied zu einem Encoder mit starrer Vorverarbeitung, also ohne individuelle Verstellmöglichkeit, werden hier auf der Basis des einzig relevanten Kriteriums, nämlich der erzielten Sehwahrnehmung oder Hörwahrnehmung, die einzelnen RF- Filter als separate Encoderkanäle justiert. Spätere Funkti- onsänderungen der Sehprothese, z.B. infolge der Verlagerung von Mikrokontakten, oder von Änderungen des Funktionsanteiles, des zentralen Sehsystems am gesamten Wahrnehmungsprozeß können durch entsprechende Anpassungen der RF-Filterfunktion ausgeglichen werden. Ein Vorteil der Abstimmung der RF-Filter Funktion im Dialog mit dem Implantatträger besteht in der Berücksichtigung von Funktionsaspekten, die nur der jeweilige Implantatträger und nur in impliziter Form durch subjektive Bewertung seiner Sehwahrnehmung und deren Verwendung für die Encoderjustierung in den Optimierungsprozeß einbringen kann. Entsprechendes gilt für eine Hörprothese.
Die asynchronen Impulsfolgen der einzelnen RF-Filterausgänge der zunächst funktionell getrennten Encoderkanäle werden als Stimulationssignale für selektive Stimulationsorte im Dialog mit dem Implantatträger unter Berücksichtigung der registrierten neuronalen Impulse aufeinander abgestimmt.
Weil die zeitliche Kopplung bzw. Synchronisation der neuronalen Impulse mehrerer Neuronen zur neurobiologischen Signalcodierung in sensorischen Systemen mitverwendet wird, bringt diese hier technisch (auch durch Auswertung der registrierten neuronalen Aktivität zu stimulierender Neuronen) realisierte, zeitliche Kopplung den Vorteil einer Verbesserung der visuellen Wahrnehmungsqualität.
Die Zahl der selektiv erreichbaren Stimulationsorte und deren Trennschärfe bzw. Übersprechdämpfung bei einer festen Zahl von implantierten Mikrokontakten wird funktionell erhöht.
Bei einer gegebenen relativ geringen Zahl implantierter und dauerhaft funktionstüchtiger Mikrokontakte, deren Position relativ zu den Neuronen nicht modifiziert werden kann, ist es von großem Vorteil, funktionell, also durch Erzeugung geeigneter Signale, die Zahl der selektiv erreichbaren Stimulati- onsorte bzw. Neuronen und damit gleichzeitig die Zahl der separat verfügbaren Encoderkanäle bei einer hinreichenden Reserve an RF-Filtern zu erhöhen. Dies bewirkt eine Verbesserung der visuellen Wahrnehmungsqualität.
Die Detektion der Augen- und Kopfbewegungen hat den Vorteil der Bestimmung der aktuellen Position von visuellen Objekten im Raum. Ferner besteht ein Vorteil darin, unerwünschte reale Augenbewegungen durch entsprechend simulierte Augenbewegungen zu kompensieren und ferner Sehwahrnehmungskonflikte, wie z.B. Scheinbewegungen, oder Schwindel zu unterdrücken.
Die Erzeugung der einzelnen Bewegungsfunktionen als separat oder kombiniert wählbare Programme hat den Vorteil, daß der Implantatträger die Programme je nach dem Nutzen für die visuelle Wahrnehmungsqualität selbst wählen kann, statt einer automatischen Funktion unterworfen zu sein. Dennoch ist eine Entscheidung zwischen Automatik und Wahlbetrieb möglich.
Es ist für den Implantatträger von sehr großer Bedeutung, die aktuelle Position eines wahrgenommenen visuellen oder auditorischen Objektes wahrnehmen zu können, um seine Orientierung im Raum und ggf. Handlungen danach richten zu können. Ferner ist es von großem Vorteil, daß der Implantatträger vor Hindernissen bzw. Gefahren automatisch gewarnt wird und die technische Erkennung von Mustern oder Objekten zur Unterstützung der Orientierung im Raum gemeldet wird.
Mit dem Encoder wird eine direkte Verbindung zu einem Teil des Nervensystems hergestellt, welches bereits spontan aktiv ist. Es werden also neuronale Impulse von einzelnen Neuronen ohne technische Stimulation generiert. Zur optimalen Anpassung der Stimulationspulsfolgen an die jeweilige Spontanaktivität, zur genauen Bestimmung der Stimulationsparameter für eine sichere und gleichzeitig noch biologisch verträgliche Umsetzung von Stimulationspulsen in neuronale Impulse sowie zur besseren Optimierung der zeitlichen Abstimmung und Synchronisation der neuronalen Aktivität mehrerer Neuronen ist die Überwachung der neuronalen Aktivität einzelner zu stimulierender Neuronen von großem Vorteil.
Mit der technischen Anpassung des Arbeitsbereiches ist es möglich, im physiologisch helladaptierten oder dunkeladaptierten Leuchtdichtebereich die Funktion an die Bildmuster oder Schallmuster anzupassen, die spatiotemporalen Filterparameter entsprechend zu variieren, oder einen Arbeitsbereich technisch zusammenzustellen, der z.B. aus um Dekaden voneinander entfernten Teilbereichen des großen Photosensorfunkti- onsbereiches besteht.
Vorverarbeitung eintreffender Bildmuster insbesondere bezüglich mit schneller Wahl- und Änderungsmöglichkeit der jeweiligen Vorverarbeitungsfunktionen wird erfindungsgemäß nach dem Vorschlag gemäß Anspruch 7 ermöglicht.
Mit dem vorgeschalteten Vorverarbeitungsmodul kann die Funktion des aus einer nur begrenzten Zahl von RF-Filtern bestehenden Encoders durch wesentliche Vereinfachung des Bildmusters oder Schallmusters erleichtert und entsprechend die Wahrnehmungsqualität verbessert werden.

Claims

Patentansprüche
1. Lernfähiger, sensomotorischer Encoder (1) für eine Sehprothese oder Hörprothese, mit einer zentralen Kontrolleinheit für Signalverarbeitungsfunktionen, Überwachungsfunktionen, Steuerfunktionen und externe Eingriffsfunktionen, sowie mit einer Gruppe von adaptiven spatiotemporalen Filtern zur Umsetzung von Sensorsignalen in Stimulationspulsfolgen, d a d u r c h g e k e n n z e i c h n e t , daß die Sehprothese oder Hörprothese eine bidirektionale Schnittstelle zur Kopplung des Encoders (1) mit einer implantierbaren Mikrostruktur
(2,6) zur Stimulation von Nerven- oder Gliagewebe einerseits sowie zur Funktionsüberwachung von Hirnfunktionen andererseits vorgesehen ist.
2. Encoder nach Anspruch 1, d a d u r c h g e k e n n z e i c h n e t , daß die Kontrolleinheit in einem wahrnehmungsbasierten Dialogverfahren einstellbare spatiotemporale Filter mit rezeptiven Feldeigenschaften (RF-Filter) umfaßt.
3. Encoder nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß ein simuliertes Augenbewegungssystem mit Kopf- und Augenbewegungsdetektoren (K,A) vorgesehen ist.
4. Encoder nach einem der vorhergehenden Ansprüche, d - , d u r c h g e k e n n z e i c h n e t , daß den RF- Filtern steuerbare Zeitverzögerungsglieder für die relative zeitliche Abfolge der erzeugten Impulsfolgen (Sι,S2,S_-s) zugeordnet sind.
5. Encoder nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß ein Monitor vorgesehen ist, der die von den RF-Filtern erzeugte Abbildungsfunktion zumindest näherungsweise invertiert und optisch oder akustisch darstellt.
6. Encoder nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß implantatseitig eine Vorrichtung zur von der zentralen Kontrolleinheit gesteuerten Applikation eines Wirkstoffs vorgesehen ist und daß implantatseitig die neuronale Aktivität von Neuronen registriert und an ein Überwachungssystem der zentralen Kontrolleinheit übergeben wird.
7. Encoder nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß ein lernfähiges Vorverarbeitungsmodul in der zentralen Kontrolleinheit des Encoders (1) zur Vereinfachung von Bildmustern oder Schallmustern vorgesehen ist.
8. Verfahren zum Betrieb eines Encoder nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß
- zur individuellen Einstellung der Signalverarbeitungs- funktionen in einem Dialogverfahren eine wenigstens einkanalige Bewertungseingabeeinheit (3) mit einem subjektiven Bewertungsvektor gespeist wird, wobei der Bewertungsvektor die Ähnlichkeit des jeweils wahrgenommenen Bildmusters - oder Schallmusters - mit einem Sollmuster repräsentiert,
- daß der Bewertungsvektor in dem Dialogmodul (3) an ein Parametereinstellungssystem zur Erzeugung geeigneter Folgen von Parametervektoren, insbesondere an ein neuronales Netz mit nicht-überwachter Lernregel, übergeben wird, und daß das Dialogmodul (3) an einem mehrkanaligen Ausgang einen Parametervektor für die jeweils einzustellenden Signalverarbeitungsfunktionen erzeugt.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß die Signalverarbeitungsfunktionen von RF-Filtern gebildet werden.
10. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß das
Dialogmodul (3) in einem Entscheidungssystem geeignete Mustersequenzen für die Lernphase zur einzelnen oder gruppenweisen Optimierung der RF-Filter festlegt.
11. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß intern gespeicherte Sequenzen von Parametervektoren zur Festlegung von typischen RF-Filterfunktionen erzeugt werden.
12. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß die
RF-Filter einen spatiotemporalen Funktionsraum haben, der den Funktionsraum der rezeptiven Feldeigenschaften visueller oder auditorischer Neuronen am jeweiligen Implantationsort einschließt.
13. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß ein von den RF-Filtern erzeugtes Signal (Sι,S_,S3) zur Auslösung einer Ist-Wahrnehmung an die implantierbare Mikrostruktur (2,6) und simultan das dazugehörige Sollmuster an eine zweite Ausgabeeinheit, die einem anderen menschlichen Sinnesorgan zugänglich ist, abgegeben wird.
14. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß zur funktioneilen Erhöhung der Zahl und Trennschärfe der selektiv erreichbaren Stimulationsorte (F,F') bei einer gegebenen Zahl von stationär implantierten Mikrokontakten (2,6) die Impulssignale (Sι,S_,S von jeweils einem RF-Filter an mehrere, örtlich .benachbarte Mikrokontakte (16,17,18) geleitet werden.
15. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß die selektiven Stimulationsorte (F,F") durch geeignete Variation der superponierten Impulssignale (Sι,S2,S ) zur örtlichen Verlagerung des Stimulationsfocus (F, F') schnell gewechselt werden können.
16. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß die
Variation der Stimulationssignale (Sι,Sj,S--) zur Verlagerung des Stimulationsfocus (F,F') im wahrnehmungsbasierten Dialog mit dem Implantatträger über ein neuronales Netz oder andere Optimierungsalgorithmen in der zentralen Kontrolleinheit zur Bestimmung möglichst vieler, zu selektiver und trennscharfer neuronaler Erregung führender Stimulationsorte erfolgt.
17. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß durch Vergleich registrierter neuronaler Impulse mit den Stimulationssignalen (Sι,S ,S,) die aus spontan auftretenden neuronalen Impulsen und durch Stimulation erzeugten zusätzlichen Impulsen zusammengesetzte neuronale Erregung bezüglich der Selektivität und der Bioverträglichkeit verbessert wird.
18. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß zur Simulation von Augenbewegungen Kopfbewegungen und unerwünschte reale Augenbewegungen detektiert werden, daß Augenbewegungen mittels elektronischer Bildmusterverschiebung und/oder optischer Variation der Blickrichtung und/oder Bewegung der Photosensoren simuliert werden, daß unter Verwendung der detektierten realen Kopf- und Augenbewegungssignale sowie der Simulation der Augenbewegungen mittels einer Bewegungssteuerung oder -regelung schnelle und langsame Augenbewegungen für Aufgaben der Mustererkennung , Verfolgung bewegter Objekte und zum schnellen Umherblicken erzeugt werden.
19. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß
Kopfbewegungen und reale Augenbewegungen detektiert werden und daß unter Verwendung der detektierten Kopf- und Augenbewegungen mit Hilfe einer Bewegungssteuerung oder -regelung schnelle und langsame simulierte Augenbewegungen erzeugt werden, um unerwünschte reale Augenbewegungen oder Scheinbewegungswahrnehmungen zu kompensieren.
20. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß zur
Lagestabilisierung der Bildmuster bei natürlichen Kopf- Rumpfbewegungen kompensatorische Augenbewegungen in Anlehnung an den vestibulo-okulären Reflex erzeugt werden.
21. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß zur technischen Anpassung des Leuchtdichtearbeitsbereiches aus dem über mehrere Leuchtdichtedekaden reichenden Funktionsbereich des Photosensorarrays (4) ein Arbeitsbereich für den Encoder (1) bezüglich Größe und Adaptationsleuchtdichte gewählt werden kann, und daß dieser ausgewählte Arbeitsbereich aus nichtlinear bewerteten Ausschnitten des Funktionsbereichs zusammengesetzt werden kann.
22. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß durch ein geeignetes Abbildungsystem visuelle Szenen (32,33,34,35) mit örtlichen Teilbereichen sehr unterschiedlicher Leuchtdichte (L32, L33, L34, L35) in den jeweiligen, gemeinsamen Leuchtdichtearbeitsbereich des Encoders transponiert werden können und damit beispielsweise die visuelle Wahrnehmung invariant gegenüber einer Veränderung der mittleren Szenenleuchtdichte gemacht wird.
23. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß die
RF-Filterfunktionen zur Simulation der Wahrnehmung im hell- oder dunkel adaptierten Bereich bei Bedarf mit dem Leuchtdichte-Arbeitsbereich des Encoders verstellt werden.
24. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß sowohl die Leuchtdichte-Arbeitsbereichswahl als auch die zugehörige RF-Filterverstellung insbesondere im wahrnehmungsbasierten Dialog automatisch während simulierter Augenbewegungen, oder während der Mustererkennung schnell verändert werden können.
25. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß in einem Ablauf durch Variation der Akkommodation zunächst erste Bereiche (35,36) des Blickfeldes scharf einge- stellt werden, diese Bereiche (35,36) gespeichert werden, sodann zweite Bereiche (32,33,34) des Blickfeldes als Bild scharf eingestellt werden, wobei die ersten Bereiche (35,36) unscharf werden, und daß die ersten gespeicherten Bereiche (35,36) anstelle der ersten unscharf gewordenen Bereiche (35,36) in das Bild eingeblendet werden.
26. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß der
Ablauf sich zyklisch wiederholt.
27. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß die vom Encoder (1) unter Auswertung von Bildmuster-, Augen- und Kopfbewegungen ermittelte Position eines visuell erfaßten Objektes im Raum, oder daß die unter Auswertung von Schallmusterbewegungen ermittelte Position eines auditorisch erfaßten Objektes im Raum mit einem geeigneten, mitgeführten Signalgeber (H) an ein geeignetes Sinnesorgan gemeldet wird.
28. Verfahren nach einem der vorhergehenden Ansprüche, d a d u r c h g e k e n n z e i c h n e t , daß der
Encoder durch interne Mustererkennungsprogramme, insbesondere in Verbindung mit automatisch ablaufenden, simulierten Augenbewegungen, den Implantatträger vor Hindernissen oder Gefahren warnt sowie Art und Position technisch erkannter Muster oder Objekte meldet.
PCT/EP1998/000968 1997-02-21 1998-02-20 Lernfähiger sensomotorischer encoder für seh- oder hörprothesen WO1998036795A1 (de)

Priority Applications (21)

Application Number Priority Date Filing Date Title
DE19707046A DE19707046A1 (de) 1997-02-21 1997-02-21 Lernfähiger "Active Vision" Implant Encoder
IL13151298A IL131512A0 (en) 1997-02-21 1998-02-20 Adaptive sensory-motor encoder for visual or acoustic protheses
NZ337392A NZ337392A (en) 1997-02-21 1998-02-20 Neuroprostheses with stimulation and feedback functions
ES98913568T ES2277385T3 (es) 1997-02-21 1998-02-20 Codificador sensomotor capaz de aprender para neuroprotesis.
US09/367,030 US6400989B1 (en) 1997-02-21 1998-02-20 Adaptive sensory-motor encoder for visual or acoustic prosthesis
AU67223/98A AU732190B2 (en) 1997-02-21 1998-02-20 Adaptive sensory-motor encoder for visual or acoustic prostheses
NZ337366A NZ337366A (en) 1997-02-21 1998-02-20 Adaptive senso-motor encoder for visual or acoustic prosthesis
JP53625998A JP2001523989A (ja) 1997-02-21 1998-02-20 視覚用プロテーゼまたは音響用プロテーゼのための適応型感覚−運動エンコーダ
PCT/EP1998/000968 WO1998036795A1 (de) 1997-02-21 1998-02-20 Lernfähiger sensomotorischer encoder für seh- oder hörprothesen
DE59813735T DE59813735D1 (de) 1997-02-21 1998-02-20 Lernfähiger sensomotorischer encoder für seh- oder hörprothesen
AT98912345T ATE339987T1 (de) 1997-02-21 1998-02-20 Lernfähiger sensomotorischer encoder für seh- oder hörprothesen
CA002281907A CA2281907A1 (en) 1997-02-21 1998-02-20 Adaptive senso-motor encoder for visual or acoustic prosthesis
EP06001552A EP1666088A1 (de) 1997-02-21 1998-02-20 Lernfähiger sensomotorischer Encoder für Seh- oder Hörprothesen
AT98913568T ATE343410T1 (de) 1997-02-21 1998-02-20 Lernfähiger sensomotorischer encoder für neuroprothesen
JP53626298A JP2001511687A (ja) 1997-02-21 1998-02-20 ニューロプロテーゼのための適応型感覚―運動エンコーダ
BR9807847-0A BR9807847A (pt) 1997-02-21 1998-02-20 Codificador sensório - motor adaptativo para prósteses visuais ou acústicas
EP10009564A EP2263746A1 (de) 1997-02-21 1998-02-20 Lernfähiger sensomotorischer Encoder für Seh- oder Hörprothesen
BR9807260-9A BR9807260A (pt) 1997-02-21 1998-02-20 Codificador sensório-motor adaptativo para neuroprósteses
AU64990/98A AU6499098A (en) 1997-02-21 1998-02-20 Adaptive active camera system
EP98912345A EP0971770B1 (de) 1997-02-21 1998-02-20 Lernfähiger sensomotorischer encoder für seh- oder hörprothesen
ES98912345T ES2273410T3 (es) 1997-02-21 1998-02-20 Codificador sensomotor adaptable para protesis ocular o auditiva.

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19707046.9 1997-02-21
DE19707046A DE19707046A1 (de) 1997-02-21 1997-02-21 Lernfähiger "Active Vision" Implant Encoder
PCT/EP1998/000968 WO1998036795A1 (de) 1997-02-21 1998-02-20 Lernfähiger sensomotorischer encoder für seh- oder hörprothesen

Publications (1)

Publication Number Publication Date
WO1998036795A1 true WO1998036795A1 (de) 1998-08-27

Family

ID=36794452

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP1998/000968 WO1998036795A1 (de) 1997-02-21 1998-02-20 Lernfähiger sensomotorischer encoder für seh- oder hörprothesen

Country Status (12)

Country Link
US (1) US6400989B1 (de)
EP (3) EP2263746A1 (de)
JP (1) JP2001523989A (de)
AT (2) ATE339987T1 (de)
AU (1) AU732190B2 (de)
BR (1) BR9807847A (de)
CA (1) CA2281907A1 (de)
DE (2) DE19707046A1 (de)
ES (2) ES2273410T3 (de)
IL (1) IL131512A0 (de)
NZ (1) NZ337366A (de)
WO (1) WO1998036795A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001047598A1 (de) 1999-12-23 2001-07-05 Intelligent Implants Gmbh Vorrichtung für den geschützten betrieb von neuroprothesen und verfahren hierzu
JP2002539859A (ja) * 1999-03-24 2002-11-26 セカンド サイト リミテッド ライアビリティ カンパニー 色覚回復用の網膜の人工色補装具
EP1762269A3 (de) * 1999-03-24 2007-05-23 Second Sight Medical Products, Inc. Sehprothese
US8180453B2 (en) 1999-03-24 2012-05-15 Second Sight Medical Products, Inc. Electrode array for neural stimulation
US8412341B2 (en) 1999-03-03 2013-04-02 Cochlear Limited Method and apparatus for optimizing the operation of a cochlear implant prosthesis
US8437858B2 (en) 2008-03-18 2013-05-07 Imi Intelligent Medical Implants, Ag Visual prosthesis system for displaying video image and text data
US8503713B2 (en) 2006-12-19 2013-08-06 Imi Intelligent Medical Implants Ag Visual aid with three-dimensional image acquisition
US9389431B2 (en) 2011-11-04 2016-07-12 Massachusetts Eye & Ear Infirmary Contextual image stabilization

Families Citing this family (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4047382B2 (ja) * 1995-08-04 2008-02-13 マイクロコーティング テクノロジーズ 超臨界付近および超臨界の流体溶液の溶射を用いた化学蒸着および粉体形成
US20030069603A1 (en) * 2001-10-10 2003-04-10 Little James S. Medical tack with a variable effective length
US6505256B1 (en) * 1999-01-15 2003-01-07 Compaq Information Technologies Group, L.P. Automatic synchronization of state colors across a web-based system
US6507758B1 (en) * 1999-03-24 2003-01-14 Second Sight, Llc Logarithmic light intensifier for use with photoreceptor-based implanted retinal prosthetics and those prosthetics
US7925354B2 (en) 2000-05-26 2011-04-12 Second Sight Medical Products, Inc. Video processing methods for improving visual acuity and/or perceived image resolution
US7224370B1 (en) * 2000-08-16 2007-05-29 International Business Machines Corporation System and method for communication among embedded devices using visual images
US6536440B1 (en) * 2000-10-17 2003-03-25 Sony Corporation Method and system for generating sensory data onto the human neural cortex
EP1209624A1 (de) * 2000-11-27 2002-05-29 Sony International (Europe) GmbH Verfahren zur komprimiertbildlichen artefaktreduktion
US8060211B2 (en) * 2001-02-13 2011-11-15 Second Sight Medical Products, Inc. Method of reducing retinal stress caused by an implantable retinal electrode array
US7181287B2 (en) * 2001-02-13 2007-02-20 Second Sight Medical Products, Inc. Implantable drug delivery device
US7149586B2 (en) * 2002-03-28 2006-12-12 Second Sight Medical Products, Inc. Variable pitch electrode array
US7480988B2 (en) 2001-03-30 2009-01-27 Second Sight Medical Products, Inc. Method and apparatus for providing hermetic electrical feedthrough
DE10120908A1 (de) * 2001-04-28 2002-10-31 Td Verwaltungs Gmbh Mikrokontaktstruktur zur Implantation bei einem Säugetier, insbesondere bei einem Menschen
WO2002087685A2 (en) * 2001-05-01 2002-11-07 Second Sight, Llc High-density array of micro-machined electrodes for neural stimulation
US6976998B2 (en) * 2002-01-17 2005-12-20 Massachusetts Institute Of Technology Minimally invasive retinal prosthesis
US8389434B2 (en) 2002-04-11 2013-03-05 Second Sight Medical Products, Inc. Catalyst and a method for manufacturing the same
US7211103B2 (en) 2002-04-11 2007-05-01 Second Sight Medical Products, Inc. Biocompatible bonding method and electronics package suitable for implantation
US7142909B2 (en) * 2002-04-11 2006-11-28 Second Sight Medical Products, Inc. Biocompatible bonding method and electronics package suitable for implantation
US7645262B2 (en) 2002-04-11 2010-01-12 Second Sight Medical Products, Inc. Biocompatible bonding method and electronics package suitable for implantation
US6778183B1 (en) * 2002-07-10 2004-08-17 Genesis Microchip Inc. Method and system for adaptive color and contrast for display devices
US7034843B2 (en) * 2002-07-10 2006-04-25 Genesis Microchip Inc. Method and system for adaptive color and contrast for display devices
US7565202B2 (en) 2002-07-30 2009-07-21 Second Sight Medical Products, Inc. Field focusing and mapping in an electrode array
WO2004014479A2 (en) * 2002-08-09 2004-02-19 Second Sight Medical Products, Inc Insulated implantable electrical circuit
EP1398012A1 (de) * 2002-08-30 2004-03-17 Friedrich-Wilhelms-Universität Bonn Rheinische Verfahren und Vorrichtung zur Erzeugung intersensorischer Perceptions-Assoziationen
US7001427B2 (en) * 2002-12-17 2006-02-21 Visioncare Ophthalmic Technologies, Inc. Intraocular implants
US6972032B2 (en) * 2003-01-14 2005-12-06 Visioncare Ophthalmic Technologies Inc. Intraocular lens implant
US7574263B2 (en) * 2003-01-31 2009-08-11 Second Sight Medical Products, Inc. Pixel re-mapping for visual prosthesis
US20060265057A1 (en) 2003-01-31 2006-11-23 Greenberg Robert J Field focusing and mapping in an electrode array
US8014878B2 (en) * 2005-04-28 2011-09-06 Second Sight Medical Products, Inc. Flexible circuit electrode array
US8131375B2 (en) * 2003-03-21 2012-03-06 Second Sight Medical Products, Inc. Trans-retinal flexible circuit electrode array
US7483750B2 (en) * 2003-03-21 2009-01-27 Second Sight Medical Products, Inc. Transretinal implant and method of implantation
US8260428B2 (en) * 2003-05-01 2012-09-04 California Institute Of Technology Method and system for training a visual prosthesis
US7571011B2 (en) 2003-05-01 2009-08-04 Second Sight Medical Products, Inc. Adherent metal oxide coating forming a high surface area electrode
US7321796B2 (en) * 2003-05-01 2008-01-22 California Institute Of Technology Method and system for training a visual prosthesis
US7347874B2 (en) * 2003-07-11 2008-03-25 Depuy Products, Inc. In vivo joint implant cycle counter
US7470288B2 (en) * 2003-07-11 2008-12-30 Depuy Products, Inc. Telemetric tibial tray
US7218232B2 (en) * 2003-07-11 2007-05-15 Depuy Products, Inc. Orthopaedic components with data storage element
EP1648354A4 (de) * 2003-07-11 2010-03-31 Depuy Products Inc In-vivo-gelenkspalt-messungsvorrichtung und verfahren
US7311723B2 (en) * 2003-07-11 2007-12-25 University Of Washington Scanning laser device and methods of use
US7228181B2 (en) 2004-04-06 2007-06-05 Second Sight Medical Products, Inc. Retinal prosthesis with side mounted inductive coil
US7263403B2 (en) 2004-05-25 2007-08-28 Second Sight Medical Products, Inc. Retinal prosthesis
US8078284B2 (en) * 2004-05-25 2011-12-13 Second Sight Medical Products, Inc. Retinal prosthesis with a new configuration
US7483751B2 (en) 2004-06-08 2009-01-27 Second Sight Medical Products, Inc. Automatic fitting for a visual prosthesis
US8103352B2 (en) * 2004-12-03 2012-01-24 Second Sight Medical Products, Inc. Mimicking neural coding in retinal ganglion cells with short pulse electrical stimulation
US8068913B2 (en) 2004-12-03 2011-11-29 Second Sight Medical Products, Inc. Visual prosthesis for improved circadian rhythms and method of improving the circadian rhythms
US7842086B2 (en) * 2005-01-07 2010-11-30 Visioncare Ophthalmic Technologies, Inc. Mirror implant
US7571004B2 (en) 2005-01-26 2009-08-04 Second Sight Medical Products, Inc. Neural stimulation for increased persistence
US9095722B2 (en) 2005-02-01 2015-08-04 Second Sight Medical Products, Inc. Micro-miniature implantable coated device
US20060293578A1 (en) * 2005-02-03 2006-12-28 Rennaker Robert L Ii Brian machine interface device
EP1858586B1 (de) * 2005-02-16 2016-05-11 Second Sight Medical Products, Inc. Helligkeitsanpassung bei einer sehprothese
DE102005017740A1 (de) * 2005-04-12 2006-10-19 Universität Tübingen Vorrichtung zur elektrischen Stimulation von biologischem Material
JP4958898B2 (ja) 2005-04-28 2012-06-20 セカンド サイト メディカル プロダクツ インコーポレイテッド 移植可能な神経刺激装置のパッケージ
EP2089100B1 (de) 2005-04-28 2015-05-27 Second Sight Medical Products, Inc. Flexible schaltung mit elektroden-array
JP4913132B2 (ja) * 2005-05-04 2012-04-11 セカンド サイト メディカル プロダクツ インコーポレイテッド 互いに別個の中央電極アレイと周辺電極アレイを備えた人工網膜
US20070027541A1 (en) * 2005-07-26 2007-02-01 Visioncare Ophthalmic Technologies Inc. Intraocular devices and methods for implantation thereof
US8088161B2 (en) * 2005-07-28 2012-01-03 Visioncare Ophthalmic Technologies Inc. Compressed haptics
WO2007035617A1 (en) * 2005-09-16 2007-03-29 Second Sight Medical Products, Inc. Neural stimulation for increased contrast
US9913985B2 (en) * 2006-04-28 2018-03-13 Second Sight Medical Products, Inc. Method and apparatus to provide safety checks for neural stimulation
US8224454B2 (en) * 2005-09-16 2012-07-17 Second Sight Medical Products, Inc. Downloadable filters for a visual prosthesis
US7734352B2 (en) * 2005-09-19 2010-06-08 Second Sight Medical Products, Inc. Sub-threshold stimulation to precondition neurons for supra-threshold stimulation
US8956396B1 (en) * 2005-10-24 2015-02-17 Lockheed Martin Corporation Eye-tracking visual prosthetic and method
US8945197B1 (en) * 2005-10-24 2015-02-03 Lockheed Martin Corporation Sight-restoring visual prosthetic and method using infrared nerve-stimulation light
US20070089992A1 (en) * 2005-10-26 2007-04-26 Dao Zhou Electrode surface coating and method for manufacturing the same
US7877866B1 (en) * 2005-10-26 2011-02-01 Second Sight Medical Products, Inc. Flexible circuit electrode array and method of manufacturing the same
WO2007056183A1 (en) * 2005-11-02 2007-05-18 Second Sight Medical Products, Inc. Implantable microelectronic device and method of manufacture
US20070198066A1 (en) * 2005-11-03 2007-08-23 Greenberg Robert J Method and apparatus for visual neural stimulation
EP1960040B1 (de) 2005-12-01 2017-02-08 Second Sight Medical Products, Inc. Einsatz einer nervenprothese über impedanz und elektrodenhöhe
US7914842B1 (en) 2006-02-10 2011-03-29 Second Sight Medical Products, Inc Method of manufacturing a flexible circuit electrode array
US8131376B1 (en) 2007-09-11 2012-03-06 Second Sight Medical Products, Inc. Method of inspection of materials for defects
WO2007127444A2 (en) * 2006-04-28 2007-11-08 Second Sight Medical Products, Inc. Visual prosthesis fitting
US9492663B2 (en) 2006-04-28 2016-11-15 Second Sight Medical Products, Inc. Video configuration file editor for visual prosthesis fitting
US7918886B2 (en) * 2006-05-25 2011-04-05 Visioncare Ophthalmic Technologies Inc. Double insertion intraocular implant
US7750076B2 (en) 2006-06-07 2010-07-06 Second Sight Medical Products, Inc. Polymer comprising silicone and at least one metal trace
WO2007146082A2 (en) 2006-06-06 2007-12-21 Second Sight Medical Products, Inc. Molded polymer comprising silicone and at least one metal trace and a process of manufacturing the same
US9185810B2 (en) * 2006-06-06 2015-11-10 Second Sight Medical Products, Inc. Molded polymer comprising silicone and at least one metal trace and a process of manufacturing the same
US8311634B2 (en) * 2006-06-16 2012-11-13 Second Sight Medical Products Inc. Apparatus and method for electrical stimulation of human retina
US8457754B2 (en) * 2006-06-16 2013-06-04 Second Sight Medical Products, Inc. Apparatus and method for electrical stimulation of human neurons
WO2007149465A2 (en) * 2006-06-19 2007-12-27 Second Sight Medical Products, Inc. Electrode with increased stability and method of manufacturing the same
WO2007149571A2 (en) 2006-06-21 2007-12-27 Second Sight Medical Products, Inc. Flexible circuit electrode array with at least one tack opening
WO2008011096A2 (en) * 2006-07-20 2008-01-24 Second Sight Medical Products, Inc. Apparatus and method for visual stimulation indication
WO2008013879A2 (en) * 2006-07-26 2008-01-31 Second Sight Medical Products, Inc. Process for cathodic protection of electrode materials
US9764134B2 (en) 2006-07-28 2017-09-19 Second Sight Medical Products, Inc. Visual prosthesis
EP2077892B1 (de) 2006-08-16 2014-12-24 Second Sight Medical Products, Inc. Automatische armatur für eine sehprothese
US8374698B2 (en) * 2006-08-18 2013-02-12 Second Sight Medical Products, Inc. Package for an implantable neural stimulation device
US10065036B2 (en) * 2006-09-29 2018-09-04 Second Sight Medical Products, Inc. Method for measuring stable and reproducible electrode-tissue impedance
US8548597B2 (en) 2006-09-29 2013-10-01 Second Sight Medical Products, Inc. External coil assembly for implantable medical prostheses
AU2007309232B2 (en) * 2006-10-19 2013-09-26 Second Sight Medical Products, Inc. Visual prosthesis
US8244363B2 (en) * 2006-10-20 2012-08-14 Second Sight Medical Products, Inc. Visual prosthesis
US8660660B2 (en) * 2006-11-14 2014-02-25 Second Sight Medical Products, Inc. Power scheme for implant stimulators on the human or animal body
US9095709B2 (en) * 2006-12-22 2015-08-04 Second Sight Medical Products, Inc. Visual prosthetic apparatus for retinal stimulation
WO2008064269A2 (en) 2006-11-20 2008-05-29 Second Sight Medical Products, Inc. Method of improving electrode tissue interface
AU2008210379B2 (en) * 2007-01-31 2012-05-03 Second Sight Medical Products, Inc. Field of view matching in a visual prosthesis
EP2114514B1 (de) * 2007-02-16 2016-10-12 Second Sight Medical Products, Inc. Flexibles schaltungselektrodenarray mit folienunterstützung
US8706244B2 (en) * 2008-09-16 2014-04-22 Second Sight Medical Products, Inc. Fitting of brightness as a function of current amplitude in a visual prosthesis
EP2134415B1 (de) * 2007-03-08 2017-05-03 Second Sight Medical Products, Inc. Flexibles schaltungselektroden-array
WO2008109771A2 (en) * 2007-03-08 2008-09-12 Second Sight Medical Products, Inc. Saliency-based apparatus and methods for visual prostheses
WO2008137602A1 (en) * 2007-05-01 2008-11-13 Evolved Machines, Inc. Sensory event recoding and decoding
WO2008140976A1 (en) * 2007-05-08 2008-11-20 Second Sight Medical Products, Inc. Method and system for providing stimulation inputs to a visual prosthesis implant
US8798756B2 (en) 2007-11-07 2014-08-05 Second Sight Medical Products, Inc. Video processing unit for a visual prosthetic apparatus
US9220169B2 (en) * 2007-06-21 2015-12-22 Second Sight Medical Products, Inc. Biocompatible electroplated interconnection electronics package suitable for implantation
WO2009002355A1 (en) * 2007-06-25 2008-12-31 Second Sight Medical Products, Inc. Method for providing hermetic electrical feedthrough
AU2008268154B2 (en) 2007-06-27 2013-06-20 Second Sight Medical Products, Inc. Flexible circuit electrode array
AU2008272808B2 (en) * 2007-07-05 2013-09-19 Second Sight Medical Products Return electrode for a flexible circuit electrode array
US8145322B1 (en) 2007-07-19 2012-03-27 Second Sight Medical Products, Inc. Flexible circuit electrode array device and a method for backside processing of a flexible circuit electrode device
US9592377B2 (en) * 2007-07-27 2017-03-14 Second Sight Medical Products, Inc. Implantable device for the brain
US9381354B2 (en) 2007-08-15 2016-07-05 Second Sight Medical Products, Inc. Visual prosthesis with integrated visor and video processing unit
US8554327B2 (en) 2010-11-24 2013-10-08 Second Sight Medical Products, Inc. Method and apparatus for predicting and controlling the percepts induced by a visual prosthesis
AU2008316629B2 (en) 2007-10-24 2013-04-04 Doheny Eye Institute Electrode array for even neural pressure having multiple attachment points
US8195302B2 (en) * 2007-11-07 2012-06-05 Second Sight Medical Products, Inc. Video processing unit for a visual prosthetic apparatus
US8195303B2 (en) * 2007-11-07 2012-06-05 Second Sight Medical Products, Inc. Video processing unit for a visual prosthetic apparatus
EP2224999B1 (de) 2007-11-08 2013-10-23 Second Sight Medical Products, Inc. Cochlea-stimulationsvorrichtung mit einer flexiblen elektrodenanordnung
JP2011509703A (ja) 2008-01-14 2011-03-31 アイエムアイ インテリジェント メディカル インプランツ アクチエンゲゼルシャフト マイクロエレクトロニクス素子およびこれを組み込んだ医療用インプラント装置
US7912556B2 (en) 2008-03-04 2011-03-22 Second Sight Medical Products, Inc. Electrode array for even neural pressure
WO2009115102A1 (en) * 2008-03-20 2009-09-24 Imi Intelligent Medical Implants Ag Power supply for a retina implant
US20090270958A1 (en) * 2008-04-25 2009-10-29 Greenberg Robert J Simply Supported Neural Stimulation Electrode Array for Applying Pressure on Neural Tissue
US9254385B2 (en) 2008-05-14 2016-02-09 Second Sight Medical Products, Inc. Visual prosthesis for phosphene shape control
US10390441B1 (en) 2008-05-28 2019-08-20 Second Sight Medical Products, Inc. Method for providing hermetic electrical feedthrough
US8626306B2 (en) * 2008-06-12 2014-01-07 Second Sight Medical Products, Inc. Visual prosthesis for control of spatiotemporal interactions
US9302107B2 (en) 2008-07-25 2016-04-05 Second Sight Medical Products, Inc. Cortical visual prosthesis
WO2010017448A1 (en) * 2008-08-07 2010-02-11 Massachusetts Institute Of Technology Coding for visual prostheses
EP2349463B1 (de) * 2008-08-26 2016-07-20 Second Sight Medical Products System zur messung und anpassung der räumlich-temporalen sicht
WO2010033539A2 (en) * 2008-09-16 2010-03-25 Second Sight Medical Products Digital image filters and related methods for image contrast enhancement
EP2364179B1 (de) 2008-09-18 2015-12-23 Second Sight Medical Products Techniken und funktionale elektrische stimulation zur eliminierung von beschwerden bei der elektrischen retina-stimulation
US20100145445A1 (en) * 2008-12-10 2010-06-10 Visioncare Opthalmic Technologies Inc. Anti-glare solutions for intraocular implants
US8718784B2 (en) 2010-01-14 2014-05-06 Nano-Retina, Inc. Penetrating electrodes for retinal stimulation
US8150526B2 (en) * 2009-02-09 2012-04-03 Nano-Retina, Inc. Retinal prosthesis
US8442641B2 (en) 2010-08-06 2013-05-14 Nano-Retina, Inc. Retinal prosthesis techniques
US8428740B2 (en) 2010-08-06 2013-04-23 Nano-Retina, Inc. Retinal prosthesis techniques
US8706243B2 (en) 2009-02-09 2014-04-22 Rainbow Medical Ltd. Retinal prosthesis techniques
DE102009011032A1 (de) * 2009-03-02 2010-09-09 Epiret Gmbh Mobile Video Trainingseinheit
US20100249878A1 (en) * 2009-03-27 2010-09-30 Mcmahon Matthew J Visual Prosthesis Fitting Training and Assessment System and Method
US8634923B2 (en) * 2009-08-25 2014-01-21 Salk Institute For Biological Studies Customization of irregular arrays
US8620442B2 (en) 2010-01-27 2013-12-31 Second Sight Medical Products, Inc. Multi-electrode integration in a visual prosthesis
CN102858402B (zh) * 2010-02-26 2016-03-30 康奈尔大学 视网膜假体
US9694180B2 (en) 2010-04-30 2017-07-04 Second Sight Medical Products, Inc. Shape analysis for fitting in a visual prosthesis
US8483837B2 (en) 2010-04-30 2013-07-09 Second Sight Medical Products, Inc. Selectable filters for a visual prosthesis
US8527056B2 (en) 2010-04-30 2013-09-03 Second Sight Medical Products, Inc. Encoding of size and brightness of percepts in a visual prosthesis
US9943688B2 (en) 2010-06-18 2018-04-17 Second Sight Medical Products, Inc. Wireless visual prosthesis with remote driver and coil
BR112013004964A2 (pt) 2010-08-31 2017-05-23 Univ Cornell aparelho protético para recuperar ou melhorar a visão de um indivíduo em necessidade do mesmo
US9302103B1 (en) 2010-09-10 2016-04-05 Cornell University Neurological prosthesis
US8588921B2 (en) 2010-11-12 2013-11-19 Second Sight Medical Products, Inc. Visual prosthesis with an improved electrode array adapted for foveal stimulation
US10292579B2 (en) 2010-12-03 2019-05-21 Second Sight Medical Products, Inc. Method and apparatus for fitting a visual prosthesis using electrically evoked electroretinograms
US8571669B2 (en) 2011-02-24 2013-10-29 Nano-Retina, Inc. Retinal prosthesis with efficient processing circuits
US10137303B2 (en) 2011-05-16 2018-11-27 Second Sight Medical Products, Inc. Cortical interface for motor signal recording and sensory signal stimulation
US9205257B1 (en) 2011-05-26 2015-12-08 Second Sight Medical Products, Inc. Method and apparatus for inducing the perception of color in a visual prosthesis
US9569657B2 (en) 2011-08-05 2017-02-14 Second Sight Medical Products, Inc. Face detection, tracking, and recognition for a visual prosthesis
US9547804B2 (en) * 2011-08-25 2017-01-17 Cornell University Retinal encoder for machine vision
US20160325096A1 (en) * 2011-08-30 2016-11-10 Monash University System and method for processing sensor data for the visually impaired
US9089702B2 (en) 2011-10-03 2015-07-28 Second Sight Medical Products, Inc. Hybrid fitting for a visual prosthesis
US9715837B2 (en) 2011-12-20 2017-07-25 Second Sight Medical Products, Inc. Text reading and translation in a visual prosthesis
US20150112237A1 (en) * 2012-04-23 2015-04-23 Yissum Research Development Company of The Hebrew Jerusalem LTD. Device for rehabilitating brain mechanism of visual perception using complementary sensual stimulations
EP2900316B1 (de) 2012-09-27 2023-07-19 Cortigent, Inc. Medizinisches gerät umfassend eine implantierbare spule, eine externe spule und einen signalstärkeindikator
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9370417B2 (en) 2013-03-14 2016-06-21 Nano-Retina, Inc. Foveated retinal prosthesis
US9801560B2 (en) * 2013-08-27 2017-10-31 Johnson & Johnson Vision Care, Inc. Ophthalmic lens with a neural frequency detection system
US9949376B2 (en) 2013-12-06 2018-04-17 Second Sight Medical Products, Inc. Cortical implant system for brain stimulation and recording
US9474902B2 (en) 2013-12-31 2016-10-25 Nano Retina Ltd. Wearable apparatus for delivery of power to a retinal prosthesis
US9331791B2 (en) 2014-01-21 2016-05-03 Nano Retina Ltd. Transfer of power and data
US9919147B2 (en) 2014-03-19 2018-03-20 Second Sight Medical Products, Inc. Electrode arrays and their lead for use in biomedical implants
US10010396B2 (en) 2014-03-19 2018-07-03 Second Sight Medical Products, Inc. Multilayer composite materials vias
FR3019317B1 (fr) * 2014-03-26 2016-05-27 Univ Pierre Et Marie Curie (Paris 6) Dispositif de visualisation d'une sequence d'images et systeme de visualisation d'une scene
US9526896B2 (en) 2014-08-12 2016-12-27 Second Sight Medical Products, Inc. Pattern detection and location indication for a visual prosthesis
EP3195192B1 (de) 2014-09-15 2024-02-21 Cortigent, Inc. Verfahren und system zur erkennung von hindernissen für einen sehprothese
CN112842690B (zh) 2015-04-20 2023-10-17 康奈尔大学 具有维度数据缩减的机器视觉
US9808625B2 (en) 2015-05-01 2017-11-07 Second Sight Medical Products, Inc. Spatial fitting by percept location tracking
US9861820B2 (en) 2015-05-13 2018-01-09 Second Sight Medical Products, Inc. Cortical visual prosthesis
US9974954B2 (en) 2015-05-14 2018-05-22 Second Sight Medical Products, Inc. Visual prosthesis including an improved video processing unit
US10493267B2 (en) 2015-12-11 2019-12-03 Second Sight Medical Products, Inc. Electrode arrays for a visual prosthesis
WO2017147201A1 (en) 2016-02-22 2017-08-31 Second Sight Medical Products, Inc. New uses for eye tracking in a visual prosthesis
US11623082B2 (en) 2016-03-07 2023-04-11 Cortigent, Inc. Flexible circuit peripheral nerve stimulator with low profile hybrid assembly
DE102016113513A1 (de) * 2016-07-21 2018-01-25 Fibro Gmbh Vorrichtung und Verfahren zur Erzeugung und Detektieren einer fälschungssicheren Identifikation
WO2018226252A1 (en) 2016-12-07 2018-12-13 Second Sight Medical Products, Inc. Depth filter for visual prostheses
WO2019083863A1 (en) 2017-10-23 2019-05-02 Patent Holding Company 001, Llc DEVICES, METHODS, AND COMMUNICATION SYSTEMS
US11338139B2 (en) 2018-10-01 2022-05-24 Biovisics Medical, Inc. System and methods for controlled electrical modulation for vision therapy
WO2020112980A2 (en) 2018-11-30 2020-06-04 Biovisics Medical, Llc Head worn apparatuses for vision therapy
DE102019202666B4 (de) * 2019-02-27 2021-04-29 CereGate GmbH Neuronales Kommunikationssystem
DE102019214752B4 (de) 2019-09-26 2022-12-15 CereGate GmbH Neuronales signalsystem, verfahren und computerprogramm zumsignalisieren eines gerätezustands
DE102019209096B4 (de) 2019-06-24 2022-12-15 CereGate GmbH Neuronales signalsystem zur verhaltensmodifikation
US11471680B2 (en) 2019-04-10 2022-10-18 Biovisics, Inc. Systems and interfaces for ocular therapy
WO2020252278A1 (en) 2019-06-14 2020-12-17 Biovisics Medical, Inc. Wearable medical device
DE102020210676A1 (de) 2020-08-21 2022-02-24 CereGate GmbH Closed-loop computer-gehirn-schnittstellenvorrichtung
US11934583B2 (en) 2020-10-30 2024-03-19 Datafeel Inc. Wearable data communication apparatus, kits, methods, and systems

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2215088A (en) 1938-04-22 1940-09-17 Soss Joseph Concealed hinge
US3766311A (en) 1972-04-26 1973-10-16 H Boll Sensory substitution system
US4628933A (en) 1985-07-23 1986-12-16 Michelson Robin P Method and apparatus for visual prosthesis
DE3720276A1 (de) * 1987-06-19 1988-12-29 Hans Prof Dr Ing Bruemmer Vorrichtung zur ausgabe von schriftzeichen und symbolen durch elektrische reizstromimpulse
US5095904A (en) * 1989-09-08 1992-03-17 Cochlear Pty. Ltd. Multi-peak speech procession
US5569307A (en) * 1989-09-22 1996-10-29 Alfred E. Mann Foundation For Scientific Research Implantable cochlear stimulator having backtelemetry handshake signal
US5215088A (en) 1989-11-07 1993-06-01 The University Of Utah Three-dimensional electrode device
JPH0820016B2 (ja) 1989-12-25 1996-03-04 トヨタ自動車株式会社 車両用無段変速機の油圧制御装置
US5498521A (en) 1990-01-24 1996-03-12 President And Fellows Of Harvard College Diagnosis of hereditary retinal degenerative diseases
US5215674A (en) 1990-06-29 1993-06-01 Union Oil Company Of California Method for reducing the risk in shipment of liquid ammonia
US5109844A (en) 1990-10-11 1992-05-05 Duke University Retinal microstimulation
US5227886A (en) 1991-02-19 1993-07-13 Hughes Aircraft Company Optical imaging/display CCD light valve and method
US5441532A (en) 1991-06-26 1995-08-15 Massachusetts Institute Of Technology Adaptive focusing and nulling hyperthermia annular and monopole phased array applicators
US5351314A (en) 1991-10-04 1994-09-27 Canon Information Systems, Inc. Method and apparatus for image enhancement using intensity dependent spread filtering
DE4241937C2 (de) * 1992-12-12 2001-02-08 Gunnar Matschulat Taktiles Bildwiedergabegerät
DE4313621C2 (de) * 1993-04-26 1995-09-21 Cis Graphik Bildverarbeitung Verfahren zur Steuerung einer digitalen Videokamera und Anordnung zur Durchführung des Verfahrens
US5597381A (en) 1993-06-03 1997-01-28 Massachusetts Eye And Ear Infirmary Methods for epi-retinal implantation
US5411540A (en) 1993-06-03 1995-05-02 Massachusetts Institute Of Technology Method and apparatus for preferential neuron stimulation
ATE208514T1 (de) 1993-08-26 2001-11-15 Univ California Neuronales netzwerk-topographische sensorische organe und verfahren
DE4337602A1 (de) * 1993-11-01 1995-05-04 Lehmann Hans Joachim Dynamische Orientierungshilfe und Fernsehsimulator für Blinde
US5501703A (en) 1994-01-24 1996-03-26 Medtronic, Inc. Multichannel apparatus for epidural spinal cord stimulator
US5496369A (en) * 1994-02-09 1996-03-05 University Of Iowa Research Foundation Human cerebral cortex neural prosthetic
JPH0846846A (ja) * 1994-07-29 1996-02-16 Canon Inc 撮像装置
US5571148A (en) 1994-08-10 1996-11-05 Loeb; Gerald E. Implantable multichannel stimulator
US5512906A (en) 1994-09-12 1996-04-30 Speciale; Ross A. Clustered phased array antenna
US5549658A (en) 1994-10-24 1996-08-27 Advanced Bionics Corporation Four-Channel cochlear system with a passive, non-hermetically sealed implant
US5545219A (en) 1995-03-30 1996-08-13 Cochlear, Ltd. Cochlear electrode implant assemblies with positioning system therefor

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"TOWARD AN ARTIFICIAL EYE", IEEE SPECTRUM, vol. 33, no. 5, 1 May 1996 (1996-05-01), pages 20 - 29, 68, XP000597260 *
ECKMILLER R E: "Concerning the development of retina implants with neural nets", PROGRESS IN NEURAL INFORMATION PROCESSING. PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON NEURAL INFORMATION PROCESSING, PROCEEDINGS OF 1996 INTERNATIONAL CONFERENCE ON NEURAL INFORMATION PROCESSING. ICONIP '96, HONG KONG, 24-27 SEPT. 1996, 1996, SINGAPORE, SPRINGER-VERLAG, SINGAPORE, pages 21 - 28 vol.1, XP002071155 *
ECKMILLER R ET AL: "Dialog concepts for learning retina encoders", 1997 IEEE INTERNATIONAL CONFERENCE ON NEURAL NETWORKS. PROCEEDINGS (CAT. NO.97CH36109), PROCEEDINGS OF INTERNATIONAL CONFERENCE ON NEURAL NETWORKS (ICNN'97), HOUSTON, TX, USA, 9-12 JUNE 1997, ISBN 0-7803-4122-8, 1997, NEW YORK, NY, USA, IEEE, USA, pages 2315 - 2320 vol.4, XP002071154 *
ECKMILLER R: "Biology-inspired pulse processing neural networks (BPN) for neurotechnology", ICANN '94. PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON ARTIFICIAL NEURAL NETWORKS, PROCEEDINGS OF INTERNATIONAL CONFERENCE ON ARTIFICIAL NEURAL NETWORKS, SORRENTO, ITALY, 26-29 MAY 1994, ISBN 3-540-19887-3, 1994, BERLIN, GERMANY, SPRINGER-VERLAG, GERMANY, pages 1329 - 1334 vol.2, XP002071156 *
KOCH C ET AL: "NEUROMORPHIC VISION CHIPS", IEEE SPECTRUM, vol. 33, no. 5, 1 May 1996 (1996-05-01), pages 38 - 46, 68, XP000597262 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8412341B2 (en) 1999-03-03 2013-04-02 Cochlear Limited Method and apparatus for optimizing the operation of a cochlear implant prosthesis
US8180453B2 (en) 1999-03-24 2012-05-15 Second Sight Medical Products, Inc. Electrode array for neural stimulation
JP5021119B2 (ja) * 1999-03-24 2012-09-05 セカンド サイト メディカル プロダクツ インコーポレイテッド 色覚回復用の網膜の人工色補装具
EP1762269A3 (de) * 1999-03-24 2007-05-23 Second Sight Medical Products, Inc. Sehprothese
US7565203B2 (en) 1999-03-24 2009-07-21 Second Sight Medical Products, Inc. Package for an implantable medical device
US7668599B2 (en) 1999-03-24 2010-02-23 Second Sight Medical Products, Inc. Visual prosthesis wih user interface
US7894911B2 (en) 1999-03-24 2011-02-22 Second Sight Medical Products, Inc. Electrode array for neural stimulation
JP2002539859A (ja) * 1999-03-24 2002-11-26 セカンド サイト リミテッド ライアビリティ カンパニー 色覚回復用の網膜の人工色補装具
US7957810B2 (en) * 1999-03-24 2011-06-07 Second Sight Medical Products, Inc. Motion compensation for a visual prosthesis
WO2001047598A1 (de) 1999-12-23 2001-07-05 Intelligent Implants Gmbh Vorrichtung für den geschützten betrieb von neuroprothesen und verfahren hierzu
US6493587B1 (en) 1999-12-23 2002-12-10 Intelligent Implants Gmbh Device for the protected operation of neuroprostheses and method therefor
US8503713B2 (en) 2006-12-19 2013-08-06 Imi Intelligent Medical Implants Ag Visual aid with three-dimensional image acquisition
US9233026B2 (en) 2006-12-19 2016-01-12 Pixium Vision Sa Vision aid with three-dimensional image acquisition
US8437858B2 (en) 2008-03-18 2013-05-07 Imi Intelligent Medical Implants, Ag Visual prosthesis system for displaying video image and text data
US9389431B2 (en) 2011-11-04 2016-07-12 Massachusetts Eye & Ear Infirmary Contextual image stabilization
US10571715B2 (en) 2011-11-04 2020-02-25 Massachusetts Eye And Ear Infirmary Adaptive visual assistive device

Also Published As

Publication number Publication date
CA2281907A1 (en) 1998-08-27
EP0971770A1 (de) 2000-01-19
EP1666088A1 (de) 2006-06-07
ES2277385T3 (es) 2007-07-01
US6400989B1 (en) 2002-06-04
DE59813735D1 (de) 2006-11-02
IL131512A0 (en) 2001-01-28
DE19707046A1 (de) 1998-08-27
BR9807847A (pt) 2000-08-29
JP2001523989A (ja) 2001-11-27
ATE343410T1 (de) 2006-11-15
AU6722398A (en) 1998-09-09
ES2273410T3 (es) 2007-05-01
AU732190B2 (en) 2001-04-12
NZ337366A (en) 2002-06-28
EP2263746A1 (de) 2010-12-22
EP0971770B1 (de) 2006-09-20
ATE339987T1 (de) 2006-10-15

Similar Documents

Publication Publication Date Title
EP0971770B1 (de) Lernfähiger sensomotorischer encoder für seh- oder hörprothesen
EP0969896B1 (de) Lernfähiger sensomotorischer encoder für neuroprothesen
EP3183033B1 (de) Vorrichtung zur effektiven nicht-invasiven neurostimulation mittels variierender reizsequenzen
EP2098261B1 (de) Vorrichtung zur visuellen Stimulation
EP3310432B1 (de) Vorrichtung zur effektiven nicht-invasiven zwei-stufen-neurostimulation
DE102010016461B4 (de) Vorrichtung zur Behandlung von Erkrankungen des Gehirns und/oder Rückenmarks mittels Neurofeedback
EP3188794B1 (de) Vorrichtung zur nicht-invasiven neurostimulation mittels mehrkanal-bursts
EP2442758A1 (de) Aussenohrmuskulaturerfassungsmittel
EP1453356A2 (de) Verfahren zum Einstellen eines Hörsystems und entsprechendes Hörsystem
DE102014115997B4 (de) Vorrichtung zur effektiven nicht-invasiven desynchronisierenden Neurostimulation
WO2015165584A1 (de) Mittel zur steuerung der akkommodationsbedarfserfassung in einem künstlichen akkommodationssystem
EP4044919B1 (de) Individualisierte sturzprävention
EP4080904A1 (de) Verfahren zum betreiben eines hörsystems
DE202006021009U1 (de) Vorrichtung zum Stimulieren des Gehirns einer Person
MXPA99007732A (en) Adaptive senso-motor encoder for visual or acoustic prosthesis
KR20000075557A (ko) 시각 또는 청각 인공보철용의 적응성 있는 센서-모터 인코더
Sommerhalder How to restore reading with visual prostheses
Cai Visual spatial and temporal perception before saccades

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 131512

Country of ref document: IL

AK Designated states

Kind code of ref document: A1

Designated state(s): AM AT AU BA BB BG BR BY CA CH CN CU CZ DE DK EE ES FI GB GE GM GW HU IL JP KE KG KP KR KZ LC LK LR LT LU LV MD MG MN MW MX NO NZ PL PT RO RU SD SE SG SI SK SL TJ TT UA US UZ VN YU ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW SD SZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE BF BJ CF CG CI CM GA GN ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1998912345

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2281907

Country of ref document: CA

Kind code of ref document: A

Ref document number: 2281907

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: PA/a/1999/007732

Country of ref document: MX

Ref document number: 337366

Country of ref document: NZ

WWE Wipo information: entry into national phase

Ref document number: 1019997007617

Country of ref document: KR

ENP Entry into the national phase

Ref document number: 1998 536259

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 67223/98

Country of ref document: AU

WWP Wipo information: published in national office

Ref document number: 1998912345

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09367030

Country of ref document: US

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWP Wipo information: published in national office

Ref document number: 1019997007617

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 67223/98

Country of ref document: AU

WWW Wipo information: withdrawn in national office

Ref document number: 1019997007617

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1998912345

Country of ref document: EP