DE69922129T2 - Farbbildverarbeitungssystem - Google Patents

Farbbildverarbeitungssystem Download PDF

Info

Publication number
DE69922129T2
DE69922129T2 DE69922129T DE69922129T DE69922129T2 DE 69922129 T2 DE69922129 T2 DE 69922129T2 DE 69922129 T DE69922129 T DE 69922129T DE 69922129 T DE69922129 T DE 69922129T DE 69922129 T2 DE69922129 T2 DE 69922129T2
Authority
DE
Germany
Prior art keywords
image
pixels
input
output
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69922129T
Other languages
English (en)
Other versions
DE69922129D1 (de
Inventor
David S. Taubman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Application granted granted Critical
Publication of DE69922129D1 publication Critical patent/DE69922129D1/de
Publication of DE69922129T2 publication Critical patent/DE69922129T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter
    • H04N2209/046Colour interpolation to calculate the missing colour values

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Betreiben eines Datenverarbeitungssystems, z. B. von Digitalkameras, und zum Umwandeln von Daten von einem Kamerasensor zu einem Farbbild.
  • Ein digitales Farbbild besteht üblicherweise aus einem Array aus Pixelwerten, die die Intensität des Bildes an jedem Punkt eines regelmäßigen Gitters darstellen. Üblicherweise werden drei Farben verwendet, um das Bild zu erzeugen. An jedem Punkt des Gitters wird die Intensität von jeder dieser Farben spezifiziert, wodurch sowohl die Intensität als auch die Farbe des Bildes an diesem Gitterpunkt spezifiziert wird.
  • Die herkömmliche Farbphotographie zeichnet die relevanten Bilddaten auf, durch Verwenden von drei überlappenden Farberfassungsschichten mit Empfindlichkeiten in unterschiedlichen Regionen des Spektrums (üblicherweise Rot, Grün und Blau). Digitalkameras verwenden im Gegensatz dazu üblicherweise ein Array aus Sensoren in einer einzelnen „Schicht".
  • Wenn nur ein Sensorarray verwendet wird, um Farbbilder zu erfassen, kann nur eine Farbe an einer gegebenen Sensorposition erfasst werden. Als ein Ergebnis erzeugen diese Sensoren kein Farbbild im herkömmlichen Sinn, sondern eher eine Sammlung von individuellen Farbabtastwerten, die von der Zuordnung von Farbfiltern zu individuellen Sensoren abhängen. Diese Zuordnung wird als das Farbfilterarray (CFA; CFA = color filter array) oder das Farbmosaikmuster bezeichnet. Um ein Echtfarbbild zu erzeugen, mit einem vollen Satz von Farbabtastwerten (üblicherweise Rot, Grün und Blau) an jeder Abtastposition, ist ein wesentlicher Rechenaufwand erforderlich, um die fehlenden Informationen zu schätzen, da nur eine einzelne Farbe ursprünglich an jeder Position in dem Array erfasst wurde. Diese Operation wird üblicherweise als „Mosaikentfernung" bezeichnet.
  • Um die fehlenden Informationen zu erzeugen, müssen Informationen aus benachbarten Pixeln in dem Bildsensor verwendet werden. Eine Anzahl von Algorithmen wurde bei einem Versuch eingesetzt, die fehlenden Informationen zu liefern, während Minimierungsartefakte aus dem Schätzprozess resultieren. Die einfachsten Algorithmen interpolieren die Sensordaten aus gleichen Farbsensoren, um die fehlenden Informationen zu liefern. Diese Algorithmen behandeln die Rotsensoren unabhängig von den Grünsensoren, usw. Um einen Rotwert an einer gegebenen Position zu liefern, werden die Werte, die durch die Rotsensoren in der Region dieser Position gemessen werden, interpoliert. Dieser Lösungsansatz erfordert, dass das Bild tiefpassgefiltert wird. Ein solches Filtern reduziert die Bildauflösung unter die Pixelauflösung des zugrundeliegenden Sensorarrays. Diese verlorene Auflösung kann nicht wiedergewonnen werden.
  • Um diesen Verlust bei der Auflösung zu vermeiden, wird ein weniger aggressives optisches Tiefpassfilter bei einigen weiter entwickelten Kameras verwendet. Bei solchen Systemen können die Farbsensoren jedoch nicht mehr als unabhängig behandelt werden. Zum Beispiel beschreiben Wober u. a. (U.S.-Patent 5,475,769) ein Verfahren zum Erzeugen der fehlenden Farbinformationen durch Berechnen eines gewichteten Durchschnitts der Pixelwerte in der Nachbarschaft der Pixel, deren fehlende Farbinformationen berechnet werden. Dieses Verfahren gewichtet Werte aus allen Farbsensoren, nicht nur der Farbe, die wiederhergestellt wird. Sogar dieser Lösungsansatz lässt jedoch viele Wünsche offen, da er einen Satz von Gewichten für alle Bilder verwendet.
  • Ein einzelnes Pixelarray kann derart betrachtet werden, dass es aus einer Anzahl von separaten Pixelebenen besteht, wobei jede der Ebene Sensoren für dieselbe Farbe aufweist. Da die Pixel sich nicht überlagern, sind die Sensoren in den verschiedenen Ebenen an unterschiedlichen Positionen. Systeme, die gewichtete Mittel über mehr als eine Ebene nehmen, verwenden die statistischen Abhängigkeiten zwischen diesen Abtastpositionen. Tatsächlich ermöglicht das Verwischen eines Bildes durch die Kameraoptik, dass eine Bildkante, die auf eine Farbebene präzise auf die Sensoren dieser Ebene fällt, ebenfalls in den anderen Farbebenen sichtbar wird, da das Bild durch Verwischen auf die Sensoren in der anderen Farbebene ausgebreitet wird. Da die statistischen Abhängigkeiten zwischen den verschiedenen Farbebenen von der Menge des Verweischens abhängt, das durch die Kameraoptik eingebracht wird, muss ein optimaler Algorithmus die physischen Kameraeinstellungen berücksichtigen. Entsprechend liefert ein einzelner Satz von Gewichtungsfunktionen keine optimale Schätzung der fehlenden Informationen.
  • Die statistischen Abhängigkeiten hängen ebenfalls von der Beleuchtung ab. Unterschiedliche Beleuchtungsquellen weisen unterschiedliche Spektren auf. Die Pixelfilter haben breite Durchlassbänder, die an der roten, grünen und blauen Wellenlänge zentriert sind. In Abwesenheit eines Bildverwischens wird das Ansprechverhalten eines gegebenen Pixels bestimmt durch sein Farbfilter, das Reflexionsvermögen des entsprechenden Punkts in der Szene, der photographiert wird, und das Lichtspektrum, das an diesem Punkt aus der Beleuchtungsquelle einfällt. Das Verwischen, das durch die Kameraoptik geliefert wird, vermischt das Licht zwischen den Pixeln. Somit hängen die statistischen Abhängigkeiten im Allgemeinen sowohl von der Beleuchtungsquelle als auch der Kameraoptik ab. Bekannte Verfahren zum Umwandeln der Pixelarraydaten in ein vollständig abgetastetes digitales Farbbild berücksichtigen die Beleuchtungsquelle nicht.
  • Die vorliegende Erfindung schafft eine verbesserte Datenverarbeitung.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird ein Verfahren zum Betreiben eines Datenverarbeitungssystems gemäß Anspruch 1 geschaffen.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung wird ferner ein Datenverarbeitungssystem gemäß Anspruch 8 geschaffen.
  • Das bevorzugte Ausführungsbeispiel kann ein verbessertes Bildverarbeitungsverfahren zum Umwandeln von Daten aus einem Pixelarray, das nichtüberlappende Sensoren aufweist, in ein vollständig abgetastetes digitales Bild liefern, und kann ein Umwandlungsverfahren liefern, das das optische System und/oder die Beleuchtungsquelle der Kamera korrigiert.
  • Das bevorzugte Ausführungsbeispiel schafft ein Verfahren zum Betreiben eines Datenverarbeitungssystems, um ein zweites Bild aus einem ersten Bild zu erzeugen. Das erste Bild umfasst ein zweidimensionales Array aus Pixelwerten, wobei jeder Pixelwert der Lichtintensität in einem einer Mehrzahl von Spektralbändern an einem Ort des ersten Bildes entspricht. Das Verfahren verwendet eine lineare Transformation eines Vektors, der aus Supereingangspixeln hergeleitet wird, um einen Vektor zu erhalten, der zumindest ein Superaungangspixel umfasst. Die Supereingangspixel werden definiert durch Trennen der Pixel des ersten Bildes in eine Mehrzahl von Eingangsbildebenen. Jede Eingangsbildebene weist eine identische Anzahl von Pixeln innerhalb einem normierten horizontalen und vertikalen Abtastintervall auf wie die anderen Eingangsbildebenen. Alle Pixel in einer gegebenen Eingangsbildebene entsprechen demselben Spektralband wie die anderen Pixel in dieser Eingangsbildebene. Jedes Supereingangspixel ist ein Abmessungsvektor P, wobei P die Anzahl der Eingangsbildebenen ist, wobei jede Komponente dieses Vektors ein Eingangspixel aus einer entsprechenden Eingangsbildebene ist. Auf ähnliche Weise ist ein Satz von Aungangsbildebenen definiert, wobei jedes Pixel in einer gegebenen Ausgangsbildebene die Intensität des zweiten Bildes in einem einer Mehrzahl von Spektralbändern an einem entsprechenden Punkt in dem zweiten Bild darstellt. Jedes Superausgangspixel ist ein Abmessungsvektor Q, wobei Q die Anzahl der Ausgangsbildebenen ist, wobei jede Komponente dieses Vektors ein Pixel aus einer entsprechenden Ausgangsbildebene ist. Bei dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung hängt die lineare Transformation von den Eigenschaften des optischen Systems und der Beleuchtungsquelle ab, die verwendet wird, um das erste Bild zu erzeugen. Die lineare Transformation kann ferner variiert werden, um die Inhalte der Szene, die in dem ersten Bild erfasst ist, und das gewünschte Ausgangsformat des zweiten Bildes zu berücksichtigen.
  • Ein Ausführungsbeispiel der vorliegenden Erfindung wird nachfolgend ausschließlich beispielhaft Bezug nehmend auf die beiliegenden Zeichnungen beschrieben, in denen:
  • 1 die Trennung eines Bildes darstellt, das mit einem Bildsensor gemacht wurde, der ein Wiederholungs-2x2-Muster in die Bildebenen aufweist.
  • 2 einen Abschnitt eines Sensorarrays und die Eingangspixel in dem Sensorarray darstellt, die zu einem bestimmten Zwischeneingangsvektor beitragen.
  • 3 einen Abschnitt eines Ausgangs-RGB- (Rot, Grün, Blau) Bildes und die Pixel in dem RGB-Ausgangsbild darstellt, die dem Zwischenausgangsvektor entsprechen, der in 2 gezeigt ist.
  • Das bevorzugte Verfahren kann an eine beliebige Farbabtastvorrichtung angewendet werden, die ihre Abtastwerte aus einem Sensorarray erhält, das in eine Mehrzahl von Bildebenen zersetzt werden kann, die zwei Bedingungen erfüllen. Erstens muss jede Bildebene eine identische Anzahl von Abtastwerten in einem normierten horizontalen und vertikalen Abtastintervall aufweisen; die verschiedenen Bildebenen können jedoch beliebig relativ zueinander versetzt sein. Zweitens müssen alle Abtastwerte in einer gegebenen Bildebene identische Farbeigenschaften aufweisen; mehrere Bildebenen können jedoch dieselben Farbeigenschaften aufweisen.
  • Diese Bedingungen werden durch jeden Bildsensor erfüllt, der ein Sensormuster aufweist, das aufgebaut ist, durch Wiederholen eines Betriebssystemkerns aus Erfassungselementen. Zum Beispiel basiert ein allgemeines Bildsensorarray auf dem Bayer-Muster, das erzeugt wurde durch Wiederholen eines 2x2-Sensorarraybetriebssystemkerns mit zwei grünen Sensoren, einem roten Sensor und einem blauen Sensor. Dieses Muster ist in 1 bei 10 gezeigt. Der Betriebssystemkern ist bei 12 gezeigt. Ein solcher Bildsensor kann derart betrachtet werden, dass er vier Ebenen aufweist, gezeigt bei 1417, zwei Grünebenen 14 und 17, eine Rotebene 16 und eine Blauebene 15. Das Abtastintervall ist der Bereich, der ursprünglich durch den Betriebssystemkern belegt wird. Jede dieser Ebenen ist versetzt im Hinblick auf die anderen Ebenen. Es kann gezeigt werden, dass jedes regelmäßige Abtastgitter in einen Satz von Bildebenen zersetzt werden kann, die die obigen Bedingungen erfüllen.
  • Um die nachfolgende Erörterung zu vereinfachen, wird eine Vektorschreibweise verwendet. Vektoren und Matrizen werden fettgedruckt gezeigt, um sie von skalaren Größen zu unterscheiden. Die gemessenen Intensitätswerte in jeder Bildebene werden bezeichnet durch xP[n1, n2]. Hier sind n1 und n2 Indizes, die die Position des Pixels in der p-ten Bildebene bezeichnen, und xP ist der Intensitätswert, der für dieses Pixel gemessen wird. Die Größe [n1, n2] ist ein zweidimensionaler ganzzahliger Vektor, der durch n bezeichnet wird. Der gesamte Satz von Bildebenen kann dargestellt werden als ein Satz von Vektoren x[n], wobei
    Figure 00070001
  • Das Ausgangsbild kann auf ähnliche Weise dargestellt werden als ein Satz von Vektoren, definiert auf einem unterschiedlichen Satz von Bildebenen. Üblicherweise ist das Ziel des Mosaikbeseitigungsalgorithmus das Erzeugen eines Satzes von regelmäßig beabstandeten Pixeln in drei Farbebenen (Rot, Grün und Blau). Die Intensität in der i-ten Farbebene sei bezeichnet durch yi[n1, n2]. Dann können die Ausgangspixel ebenfalls durch einen Satz von Vektoren dargestellt sein.
  • Figure 00070002
  • In dem Mosaikbeseitigungsfall ist Q üblicherweise 3; es können jedoch unterschiedliche Q-Werte verwendet werden. Zum Beispiel könnte ein Bild, das auf einem Farbdrucker unter Verwendung von vier Farben gedruckt werden soll, direkt durch das Verfahren der vorliegenden Erfindung erzeugt werden, unter Verwendung einer Darstellung, in der Q = 4.
  • Im Allgemeinen weist das Ausgangsbild eine räumliche Auflösung auf, die sich von dem Eingangsbild unterscheidet. Das Eingangsbild kann derart betrachtet werden, dass es aus einem Satz von „Superpixeln" besteht, x[n]. Auf ähnliche Weise ist das Ausgangsbild ein Satz aus Pixeln y[m]. Die Anzahl von Ausgangspixeln in der vertikalen und horizontalen Richtung, die jedem Eingangspixel entsprechen, werden durch λ1 bzw. λ2 bezeichnet. In dem Fall des Bayer-Musters, das oben erörtert wurde, wird die Mosaikbeseitigungsaufgabe üblicherweise derart betrachtet, dass λ1 = λ2 = 2. Das heißt, man versucht, ein Ausgangs- (RGB-) Pixel für jeden physischen Sensor in dem Eingangsarray aufzubauen.
  • Die Ausgangspixel beziehen sich auf die Eingangspixel durch einen linearen Operator, der an den Vektoren operiert, die aus x[n] und y[m] hergeleitet werden. Diese Zwischenvektoren berücksichtigen die Auflösungsdifferenz und die Tatsache, dass jedes Ausgangspixel von mehr als einem Eingangssuperpixel abhängt. Der Zwischenvektor, der y[m] entspricht, wird bezeichnet durch ζ[n] und weist dieselbe Abtastdichte auf wie x[n]:
    Figure 00080001
  • Hier ist die Matrix Λ definiert durch
    Figure 00080002
  • In dem Fall des Bayer-Musters gilt δ1 = [0, 0], δ1 = [½, 0], δ1 = [0, ½] und δ1 = [½, ½]. Die Vektoren ζ[n] werden in der nachfolgenden Erörterung als die Ausgangsmehrphasenkomponenten bezeichnet.
  • Bei dem bevorzugten Verfahren sei angenommen, dass jeder Mehrphasenausgangsvektor von einer finiten Anzahl von Eingangssuperpixeln abhängt. Im Allgemeinen sind die Eingangssuperpixel, die zu einem bestimmten Mehrphasenausgangsvektor ζ[n] beitragen, in einer Nachbarschaft um [n] positioniert. Wie nachfolgend detaillierter erklärt wird, hängen die präzisen Pixel von dem Wesen der Kamera und der Bilderzeugungsoptik ab. Die Eingangssuperpixel, die zu dem Mehrphasenausgangsvektor bei n beitragen, können durch einen Satz von Verschiebungsvektoren k1, k2, ..., kK identifiziert werden. Das heißt, ζ[n] hängt ab von x[n + k1], x[n + k2], ..., x[n + kK]. Bei dem bevorzugten Verfahren sei angenommen, dass ζ[n] linear abhängig von den Eingangssuperpixeln ist. Bei dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung ist der Satz von Verschiebungsvektoren k1, k2, ..., kK unabhängig von n und ist in einem rechteckigen Gitter k1 × k2 angeordnet.
  • Die lineare Beziehung kann ohne weiteres im Hinblick auf einen Vektor ξ[n] definiert werden, der alle Superpixel umfasst, von denen der Ausgangsmehrphasenvektor ζ[n] abhängt, d. h.
  • Figure 00090001
  • Im Hinblick auf diesen Vektor kann die Beziehung zwischen ζ[n] und ξ[n] als eine Matrixmultiplikation geschrieben werden: ζ [n] = Tξ[n] (6)wobei T eine Matrix (Qλ1λ2) × (PK1K2) ist.
  • Es wird nun Bezug auf 2 und 3 genommen, die die Beziehungen zwischen den Ausgangspixeln Yj[N, M], den Eingangspixeln xi[N, M] und den zwei Zwischenvektoren bestimmen, die oben für das Bayer-Sensormuster definiert sind. 2 stellt einen Abschnitt des Sensorarrays und der Eingangspixel in dem Sensorarray dar, die zu ξ[N, M] beitragen. 3 stellt einen Abschnitt eines Ausgangs-RGB-Bildes und die Pixel in dem RGB-Ausgangsbild dar, die ζ[N, M] entsprechen, und die aus den Pixel berechnet werden, gezeigt in 2, durch die Matrixmultiplikationsoperation, gezeigt in Gleichung (6).
  • Die Matrix, T, hängt von einer Anzahl von Faktoren ab. Einige derselben sind für eine bestimmte Bilderzeugungsvorrichtung fest und einige hängen von der bestimmten Art und Weise ab, auf die die Bilderzeugungsvorrichtung verwendet wird. Zum Beispiel variieren die physischen Eigenschaften des Erfassungsarrays, wie z. B. die spektrale Empfindlichkeit der Pixel, das Mosaikmuster und die Anzahl von Pixeln, üblicherweise nicht von Bild zu Bild. Im Gegensatz dazu können die optischen Eigenschaften der Bilderzeugungsvorrichtung, wie z. B. die Linseneinstellungen an einer Kamera (Blendenwert und Zoom) von Bild zu Bild variieren. Zusätzlich dazu können die spektralen Eigenschaften der Beleuchtungsquelle von Bild zu Bild variieren (Tageslicht, Blitz, weißes Licht etc.).
  • Zusätzlich dazu kann die Statistiken des Bildes, das erfasst wird, durch T berücksichtigt werden. Zum Beispiel können Bilder oder Abschnitte von Bildern mit einem hohen Gehalt von vertikalen und horizontalen Kanten mit einer unterschiedlichen Matrix verarbeitet werden als Bilder, denen solche Merkmale fehlen, und dadurch kann die Ausgangsbildqualität verbessert werden.
  • Bei Kameras, die ein variables Ausgangsformat aufweisen, kann die Auflösung des Endbildes unter Verwendung einer unterschiedlichen T-Matrix eingestellt werden. Alternativ kann eine einzelne T-Matrix für alle Auflösungen verwendet werden, und dann kann das gewünschte Ausgangsbild durch erneutes Abtasten des Festauflösungsbildes bestimmt werden. Auf ähnliche Weise kann die Anzahl von Ausgangsfarbebenen durch Verwenden unterschiedlicher T-Matrizen geändert werden, oder durch erneutes Abtasten eines einzelnen Farbformats, um eine alternative Farbdarstellung zu erzeugen. Im Allgemeinen werden die Eigenschaften, die die Abmessung der T-Matrix ändern, vorzugsweise unter Verwendung einer festen T-Matrix und dann erneutes Abtasten des abschließenden Bildes in kostengünstigen Bilderzeugungsvorrichtungen gehandhabt.
  • Wenn die Anzahl von unterschiedlichen T-Matrizen relativ gering ist, können die Koeffizienten der T-Matrix bestimmt werden, durch Trainieren des Systems an bekannten Bildern. Für jede mögliche T-Matrix werden Bilder einer Anzahl von bekannten Szenen gemacht, unter Verwendung der Bilderzeugungsvorrichtung. Die Koeffizienten der T-Matrix werden dann berechnet, um die Differenz zwischen dem Bild, das aus der Sensoreingabe berechnet wird, und den Bildern bekannter Szenen zu minimieren. Solche Optimierungsberechnungen sind Fachleuten auf dem Gebiet bekannt und werden somit hierin nicht detailliert erörtert.
  • Wenn die Abweichung bei einem Parameter, wie z. B. dem Blendenwert, relativ glatt ist, müssen die T-Matrizen nur für eine bestimmte Anzahl von Werten des Parameters berechnet werden. Die korrekte T-Matrix für die nichtberechneten variablen Parameterwerte kann dann durch Interpolation der berechneten T-Matrizen berechnet werden.
  • Modellbasierte Berechnung von T
  • Wie vorangehend erwähnt wurde, kann es in manchen Umständen möglich sein, geeignete Matrizen, T, aus Trainingsbildern zu berechnen. Leider ist dieser Lösungsansatz beschränkt auf Anwendungen, in denen die Anzahl von unterschiedlichen Bilderzeugungsbedingungen und somit die Anzahl von unterschiedlichen T-Matrizen, die erforderlich sein könnten, relativ gering ist. Der Zweck des hierin vorgelegten Materials ist das Beschreiben eines Verfahrens zum direkten Berechnen von T für eine beliebige Bilderzeugungsvorrichtung (d. h. beliebige Farbempfindlichkeiten, Sensorpositionen und optische Charakteristika) und unter beliebiger Beleuchtung, gemäß einem bestimmten statistischen Modell für das zugrundeliegende Bild, das offensichtlich eine besonders gute rekonstruierte Bildqualität ergibt. Wie ersichtlich ist, wird das statistische Bildmodell nur durch wenige Parameter bestimmt. Bei fortschrittlicheren Anwendungen können diese Parameter eingestellt werden, entweder lokal oder global, um mit den statistischen Eigenschaften des Bildes übereinzustimmen, wie z. B. der Kantenausrichtung, die durch verschiedene Verfahren geschätzt werden kann.
  • Bilderzeugungsmodell
  • Dieser Abschnitt beschreibt die Parameter des Bilderzeugungsprozesses, der die Originalszene in die Quellbild-Superpixel, x[n], abbildet. Das Bilderzeugungsmodell hängt von deterministischen Beträgen ab, die zumindest in der Theorie gemessen werden können. Diese Beträge sind
    • – die Szenenbeleuchtungs-Spektralleistungsdichte, l(λ);
    • – die Farbspektral-Ansprechfunktionen, rP(λ), für jede Eingangsbildebene, p;
    • – die Punktverwaschungsfunktion, hP(λ,s), die den kombinierten Wirkungen der optischen Übertragungsfunktion und dem Sensorintegrationsverhalten für die Eingangsbildebene p zugeordnet ist. Hier ist s = [s1, s2] das räumlich kontinuierliche Argument der Punktverwaschungsfunktion (PSF; PSF = Point Spread Function) bei jeder Wellenlänge, λ. Es wird darauf hingewiesen, dass die PSFs implizit die Wirkung der relativen Verschiebungen zwischen den unterschiedlichen Eingangsbildebenen umfassen. Nachfolgend wird die PSF nur durch ihre Fourier-Transformation bezeichnet, h ^P(λω), wobei der räumliche Frequenzvektor, ω = [ω1, ω2], derart normiert ist, dass ω1 = ω2 = π bei der Nyquist-Frequenz der Eingangssuperpixel. Somit entspricht die Nyquist-Frequenz des Originalsensorarrays ω = [λ1π,λ2π].
  • Anstatt den Bilderzeugungsprozess direkt im Hinblick auf die gewünschten Ausgangsbildsuperpixel zu modellieren ist es hilfreich, eine Zwischendarstellung im Hinblick auf Oberflächenspektralreflexionsvermögen auszuwählen, da sich dies bekannterweise von einer statistischen Perspektive besser verhält als die Szenenstrahlung selbst und somit für die statistische Modellierung besser zugänglich ist, die im nächsten Abschnitt beschrieben wird. Genauer gesagt ist es hilfreich anzunehmen, dass das Spektralreflexionsvermögen der Originalszene perfekt als eine lineare Kombination einer begrenzten Anzahl von festen Basisfunktionen dargestellt werden kann, b1(λ), b2(λ), ..., bs(λ), wobei S üblicherweise als 3 oder 4 ausgewählt ist, aber nach Wunsch größer sein kann. Die tatsächlichen Ausgangsvektoren, y[m], können im Hinblick auf die Zwischenspektralreflexionsvermögensvektoren, z[m], ausgedrückt werden als
    Figure 00130001
    wobei dq(λ) die Spektralantwort der q-ten Anzeige-Spektralantwort-Funktion ist. Zum Beispiel, wenn das Ziel ist, ein XYZ-Bild wiederzugewinnen, dann sollte Q auf 3 eingestellt sein und d1(λ) bis d3(λ) sollten auf die standardmäßigen 1931-CIE-Tristimulusfunktionen eingestellt sein. Als ein anderes Beispiel, wenn das Ziel ist, ein Bild mit denselben Farbcharakteristika wiederzugewinnen wie die unterschiedlichen Farbfilter auf dem physischen Sensorar ray, dann sollte Q auf die Anzahl von eindeutigen Eingangsantwortfunktionen eingestellt sein, rp(λ), und es sollte eine Eins-zu-Eins-Entsprechung zwischen diesem eindeutigen rp(λ) und dem dq(λ) vorliegen. In diesem Rahmen ist es das Hauptziel, die Rekonstruktionsmatrix (Sλ1λ2) × (PK1K2) zu berechnen, Tref, die die Nachbarschaft von Eingangssuperpixeln, ξ[n], auf das entsprechende Spektralreflexionsvermögenssuperpixel abbildet.
  • Figure 00140001
  • Diese abschließende (Qλ1λ2) × (PK1K2)-Rekonstruktionsmatrix wird dann gebildet durch eine einfache Matrixmultiplikation:
    Figure 00140002
  • Das lineare Bilderzeugungsmodell kann jetzt kompakt ausgedrückt werden als
    Figure 00140003
    wobei
    • – x ^(ω) die diskrete Raum-Fourier-Transformation des Eingangsbildes, x[n], ist;
    • – vv ^((ω) die diskrete Raum-Fourier-Transformation der Abtastrauschvektorsequenz ist;
    • – z ^(ω) die diskrete Raum-Fourier-Transformation des Spektral-Reflexionsvermögen-Vektors ist, z[m];
    • – Ωa(ω) der Satz ist, der alle λ1λ2-Aliasing-Frequenzen enthält, die dem Abtasten des Hochauflösungsausgangsbildes an dem Gitter [m] auf das Eingangssuperpixelgitter [N] zugeordnet sind, für jedes ω ∊ [–π, π]2; und
    • – H(ω) die PxS-Bilderzeugungsmatrix ist,
      Figure 00150001
  • Statistisches Modell
  • Um eine geeignete Lösung für das Bildwiederherstellungsproblem zu berechnen, ist es notwendig, ein statistisches Modell für das Abtastrauschen, v ^(ω), und das Spektralreflexionsvermögen, z ^(ω) einzubringen. Bei dieser Erörterung werden Breit-Erfassungs-Stationär-Gauss-Modelle angenommen, die vollständig gekennzeichnet sind durch die Kovarianzmatrizen, Cv(ω) = E[v^(ω)·v^(ω)*]und Cz(ω) = E[v^(ω)·v^(ω)*]
  • Die Rausch-Kovarianzmatrix ist üblicherweise eine Konstante, Cv(ω) = σ2I, für alle ω, die Weißrauschen entspricht, aber falls zutreffend können andere Modelle verwendet werden.
  • Das nachfolgende Parametermodell wird für die Reflexionsvermögens-Kovarianzmatrix verwendet,
    Figure 00160001
    wobei C 0 / z eine konstante SxS-Kovarianzmatrix ist, ρ ein Frequenzabfallparameter ist, der üblicherweise in dem Bereich von 20 – 30 dB/Dekade ausgewählt ist, und Γ eine 2x2-„Formmatrix" ist. Die Terme in dem obigen Ausdruck, die der konstanten Kovarianzmatrix folgen, C 0 / z, beschreiben eine skalare Hüllkurvenfunktion, deren Konturen Ellipsen in dem Frequenzbereich sind. Die Orientierung und das Aspektverhältnis dieser elliptischen Konturen können explizit mit Hilfe der Γ-Matrix gesteuert werden. Für einen kreisförmigen Querschnitt kann die Identitätsmatrix, Γ = I, verwendet werden.
  • Das statistische Modell, dargestellt durch Cz, spielt eine äußerst wichtige Rolle beim Bestimmen der Qualität der abschließenden rekonstruierten Bilder. Das parametrische Modell, das oben beschrieben wurde, kann auf einer Reihe von Gründen gerechtfertigt werden; am wichtigsten ist, dass das Modell maßstabs-invariant ist, was bedeutet, dass im Durchschnitt die Szenenstatistiken nicht davon abhängen sollten, wie weit die Kamera von der Szene entfernt angeordnet ist. Diese Maßstabsinvarianzeigenschaft ist wichtig, da bei praktischen Bilderzeugungsanwendungen Informationen über den absoluten Maßstab von Objekten in der Szene kaum verfügbar sind. Ferner besteht ein bedeutender empirischer Beweis für diese Maßstabsinvarianzeigenschaft bei natürlichen Szenen, mit einem Frequenzabfallfaktor, ρ, von ungefähr 20 dB/Dekade.
  • Effiziente Berechnung von T
  • Wie oben erwähnt wurde, ist es das Hauptziel, die Matrix (Sλ1λ2) × (PK1K2) zu berechnen, Tref, aus der T ohne weiteres über Gleichung (7) wiedergewonnen wird. Die sich ergebende Erörterung betrifft die Herleitung eines optimalen LMMSE-Schätzers (LMMSE = Linear Minimum Mean Squared Error), Tref, der den Modellen unterliegt, die in den vorangehenden zwei Abschnitten beschrieben wurden. Die Formel für einen solchen Schätzer ist bekannt. Genauer gesagt gilt, Tref = Z·X–1 (9)wobei Z die Kreuz-Kovarianzmatrix (Sλ1λ2) × (PK1K2) ist, Z = E[ζ[n]·ξn]t]und X die Dimensions-Autokovarianzmatrix (PK1K2) × (PK1K2) ist, X = E[ξ[n]·ξ[n]t]
  • Tatsächlich hat X die nachfolgende Toeplitz-Block-Toeplitz-Struktur,
    Figure 00170001
    wobei jeder Block, X[l2], die Toeplitz-Form aufweist
    Figure 00170002
    und jeder Teilblock X[l1, l2] eine PxP-Quellsuperpixel-Kovarianzmatrix ist, gegeben durch X[l] = E[x[n]·x[n + 1]t]
  • Die Matrix (Sλ1λ2) × (PK1K2), Z, weist ebenfalls eine doppelt geschachtelte Blockstruktur auf. Genauer gesagt,
    Figure 00180001
    wobei
    Figure 00180002
    und die (Sλ1λ2) × P-Teilblockmatrizen, Z[l], gegeben sind durch Z[1] = E[ζ[n]·ξ[n + 1]t].
  • Um Tref zu berechnen, ist es dann ausreichend, die Matrizen X[l] für [l] = [l1, l2] im Bereich von –Ki < li < Ki zu berechnen und die Matrizen Z[l] für [l] = [l1, l2] in dem Bereich
    Figure 00180003
    , wonach die Inhalte von X und Z eingefüllt werden können und verwendet werden können, um die Gleichung (9) zu bewerten. Der Schlüssel zur effizienten Berechnung von Tref liegt im effizienten Berechnen der Matrizen X[l] und Z[l].
  • Es stellt sich heraus, dass diese Matrizen effizient berechnet werden können, durch Ausnutzen der Parseval-Beziehung.
  • Genauer gesagt,
    Figure 00190001
    und
    Figure 00190002
    wobei die Frequenz-Auto- und Kreuz-Kovarianz-Matrizen, Cx(ω) und Cζ(ω) erhalten werden aus
    Figure 00190003
  • Hier ist Φ(ω) die Matrix (Sλ1λ2) × S der Phasenverschiebungen
    Figure 00190004
    entsprechend den relativen Verschiebungen von jeder der Ausgangsmehrphasenkomponenten.
  • Um diese Matrizen zu berechnen, werden X[l] und Z[l], Cζ,x(ω) und Cζ,x(ω) bei einer finiten Anzahl von Frequenzen bewertet, ω ∊ [–π, π]2 und dann werden die Integrale der inversen Fourier-Transformation (IFT) der Gleichungen (10) und (11) numerisch genähert. Es gibt verschiedene Lösungsansätze zum Bestimmen des besten Satzes von Frequenzpunkten, an denen X[l] und Z[l] bewertet werden soll und zum Interpolieren zwischen diesen Punkten während des numerischen Integrationsverfahrens, aber diese liegen über dem Umfang dieser kurzen Erörterung.
  • Nach der detaillierten Beschreibung des Verfahrens ist der fachmännische Leser ohne weiteres in der Lage, die Vorrichtungselemente zu bestimmen, die erforderlich sind, um das Verfahren zu implementieren.

Claims (8)

  1. Ein Verfahren zum Betreiben eines Datenverarbeitungssystems, um ein zweites Bild aus einem ersten Bild zu erzeugen, das von einer Bilderfassungsvorrichtung erhalten wird, wobei das erste Bild ein zweidimensionales Array aus Pixelwerten aufweist, wobei jeder der Pixelwerte der Lichtintensität in einem einer Mehrzahl von Spektralbändern an einem Ort in dem ersten Bild entspricht, wobei das Verfahren folgende Schritte aufweist: Trennen der Pixel des ersten Bildes in eine Mehrzahl von Eingangsbildebenen (12), wobei jede Eingangsbildebene eine identische Anzahl von Pixeln innerhalb eines wiederholten Array-Kerns von Erfassungselementen aufweist, die verwendet werden, um das Eingangsbild zu erfassen, und wobei alle Pixel in einer gegebenen Eingangsbildebene dasselbe Spektralband aufweisen wie die anderen Pixel in dieser Eingangsbildebene; Darstellen des ersten Bildes als einen Satz von Super-Eingangspixeln, wobei jedes der Super-Eingangspixel ein Vektor der Dimension P ist, wobei P die Anzahl der Eingangsbildebenen ist, wobei jede Komponente dieses Vektors ein Eingangspixel aus einer entsprechenden Eingangsbildebene ist; Definieren eines Satzes von Ausgangsbildebenen (1417), wobei jedes Pixel in einer gegebenen Ausgangsbildebene die Intensität des zweiten Bildes in einem einer Mehrzahl von Spektralbändern an einem entsprechenden Punkt in dem zweiten Bild darstellt; Darstellen des zweiten Bildes als einen Satz von Super-Ausgangspixeln, wobei jedes der Super-Ausgangspixel ein Vektor der Dimension Q ist, wobei Q die Anzahl der Ausgangsbildebenen ist, wobei jede Komponente dieses Vektors ein Pixel aus einer entsprechenden Ausgangsbildebene ist; und Anwenden einer linearen Transformation basierend auf optischen Eigenschaften der Bilderfassungsvorrichtung und den Spektraleigenschaften einer Beleuchtungsquelle, die zu einem Vektor geliefert werden, der aus den Super-Eingangspixeln abgeleitet wird, um einen Vektor zu erhalten, der zumindest eines der Super-Ausgangspixel aufweist, wobei die Vektoren die Differenz der Auflösung zwischen dem Eingangsbild und dem Ausgangsbild und die Tatsache berücksichtigen, dass jedes Ausgangspixel von mehr als einem Eingangssuperpixel abhängt.
  2. Das Verfahren gemäß Anspruch 1, bei dem das erste Bild durch eine optische Vorrichtung erzeugt wird, die ein Linsensystem aufweist, zum Abbilden einer Szene auf ein Array aus photoempfindlichen Detektoren, und bei dem die lineare Transformation von einer Eigenschaft des Linsensystems abhängt.
  3. Das Verfahren gemäß Anspruch 2, bei dem die Eigenschaft die Brennweite des Linsensystems ist.
  4. Das Verfahren gemäß Anspruch 2, bei dem die Eigenschaft die f-Zahl des Linsensystems ist.
  5. Das Verfahren gemäß Anspruch 1, bei dem die lineare Transformation von der Beleuchtungsquelle abhängt, die verwendet wird, um das erste Bild zu erzeugen.
  6. Das Verfahren gemäß Anspruch 1, bei dem die lineare Transformation von dem Typ der Szene abhängt, die in dem ersten Bild erfasst wird.
  7. Das Verfahren gemäß Anspruch 1, bei dem die lineare Transformation von dem Ausgangsformat des zweiten Bilds abhängt.
  8. Ein Datenverarbeitungssystem, das wirksam ist, um ein zweites Bild aus einem ersten Bild zu erzeugen, das von einer Bilderfassungsvorrichtung erhalten wird, wobei das erste Bild ein zweidimensionales Array aus Pixelwerten aufweist, wobei jeder der Pixelwerte der Lichtintensität in einem einer Mehrzahl von Spektralbändern an einem Ort in dem ersten Bild entspricht, wobei das System folgende Merkmale aufweist: eine Einrichtung zum Trennen der Pixel des ersten Bildes in eine Mehrzahl von Eingangsbildebenen (12), wobei jede Eingangsbildebene eine identische Anzahl von Pixeln in einem wiederholten Array-Kern von Erfassungselementen aufweist, die verwendet werden, um das Eingangsbild zu erfassen, und wobei alle Pixel in einer gegebenen Eingangsbildebene dasselbe Spektralband aufweisen wie die anderen Pixel in dieser Eingangsbildebene; eine Einrichtung zum Darstellen des ersten Bildes als einen Satz von Super-Eingangspixeln, wobei jedes der Super-Eingangspixel ein Vektor der Dimension P ist, wobei P die Anzahl der Eingangsbildebenen ist, wobei jede Komponente dieses Vektors ein Eingangspixel aus einer entsprechenden Eingangsbildebene ist; eine Einrichtung zum Definieren eines Satzes von Ausgangsbildebenen (1417), wobei jedes Pixel in einer gegebenen Ausgangsbildebene die Intensität des zweiten Bildes in einem einer Mehrzahl von Spektralbändern an einem entsprechenden Punkt in dem zweiten Bild darstellt; eine Einrichtung zum Darstellen des zweiten Bildes als einen Satz von Super-Ausgangspixeln, wobei jedes der Super-Ausgangspixel ein Vektor der Dimension Q ist, wobei Q die Anzahl der Ausgangsbildebenen ist, wobei jede Komponente dieses Vektors ein Pixel aus einer entsprechenden Ausgangsbildebene ist; und eine Einrichtung zum Anwenden einer linearen Transformation basierend auf optischen Eigenschaften der Bilderfassungsvorrichtung und den Spektraleigenschaften einer Beleuchtungsquelle, die zu einem Vektor geliefert werden, der aus den Super-Eingangspixeln hergeleitet wird, um einen Vektor zu erhalten, der zumindest eines der Super-Ausgangspixel aufweist, wobei die Vektoren die Differenz der Auflösung zwischen dem Eingangsbild und dem Ausgangsbild und die Tatsache berücksichtigen, dass jedes Ausgangspixel von mehr als einem Eingangssuperpixel abhängt.
DE69922129T 1998-10-23 1999-09-30 Farbbildverarbeitungssystem Expired - Lifetime DE69922129T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US177729 1988-04-05
US09/177,729 US7030917B2 (en) 1998-10-23 1998-10-23 Image demosaicing and enhancement system

Publications (2)

Publication Number Publication Date
DE69922129D1 DE69922129D1 (de) 2004-12-30
DE69922129T2 true DE69922129T2 (de) 2005-11-24

Family

ID=22649759

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69922129T Expired - Lifetime DE69922129T2 (de) 1998-10-23 1999-09-30 Farbbildverarbeitungssystem

Country Status (4)

Country Link
US (1) US7030917B2 (de)
EP (1) EP0996293B1 (de)
JP (1) JP4328424B2 (de)
DE (1) DE69922129T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010030108A1 (de) 2010-06-15 2011-12-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Farbbildsensor

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6853447B2 (en) * 2001-02-12 2005-02-08 Analytical Spectral Devices, Inc. System and method for the collection of spectral image data
US6816197B2 (en) * 2001-03-21 2004-11-09 Hewlett-Packard Development Company, L.P. Bilateral filtering in a demosaicing process
US7071978B2 (en) 2001-07-18 2006-07-04 Hewlett-Packard Development Company, L.P. Image mosaic data reconstruction
US7006686B2 (en) 2001-07-18 2006-02-28 Hewlett-Packard Development Company, L.P. Image mosaic data reconstruction
US6978050B2 (en) 2001-07-18 2005-12-20 Hewlett-Packard Development Company, L.P. Electronic image color plane reconstruction
US6989862B2 (en) * 2001-08-23 2006-01-24 Agilent Technologies, Inc. System and method for concurrently demosaicing and resizing raw data images
US20030169353A1 (en) * 2002-03-11 2003-09-11 Renato Keshet Method and apparatus for processing sensor images
US7830435B2 (en) * 2003-09-03 2010-11-09 Eastman Kodak Company Image sensor and image capture system with extended dynamic range
US8005297B2 (en) * 2006-01-18 2011-08-23 Qualcomm Incorporated Method and apparatus for adaptive and self-calibrated sensor green channel gain balancing
US7609307B2 (en) * 2006-09-13 2009-10-27 National Chiao Tung University Heterogeneity-projection hard-decision interpolation method for color reproduction
US8520936B2 (en) * 2007-05-02 2013-08-27 The Regents Of The University Of California Method and apparatus for use of an universal color index (UCI): a color appearance system calibrated to reflectance spectra
US8035704B2 (en) * 2008-01-03 2011-10-11 Aptina Imaging Corporation Method and apparatus for processing a digital image having defective pixels
US8135237B2 (en) * 2008-02-25 2012-03-13 Aptina Imaging Corporation Apparatuses and methods for noise reduction
KR20120106762A (ko) * 2009-11-20 2012-09-26 트리퓨라리 싱 압축 컬러 이미지 샘플링과 재구성을 위한 방법 및 시스템
WO2011069055A2 (en) 2009-12-04 2011-06-09 Stc.Unm System and methods of compressed sensing as applied to computer graphics and computer imaging
JP5153846B2 (ja) * 2010-09-28 2013-02-27 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及び、プログラム
US9454607B1 (en) * 2010-12-10 2016-09-27 A9.Com, Inc. Image as database
US8983475B2 (en) 2012-02-16 2015-03-17 Futurewei Technologies, Inc. System and method for partner network sharing architecture
JP5901563B2 (ja) * 2013-03-29 2016-04-13 富士フイルム株式会社 信号変換方法及び装置、プログラム並びにプリントシステム
JPWO2016084257A1 (ja) * 2014-11-28 2017-10-05 オリンパス株式会社 内視鏡装置
CA3175464A1 (en) * 2020-04-06 2021-10-14 Boston Scientific Scimed, Inc. Image processing systems and methods of using the same

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4653013A (en) * 1984-11-19 1987-03-24 General Electric Company Altering spatial characteristics of a digital image
US5083150A (en) * 1989-03-03 1992-01-21 Olympus Optical Co., Ltd. Automatic focusing apparatus
US5442408A (en) * 1989-11-17 1995-08-15 Sanyo Electric Co., Ltd. White balance adjusting apparatus for automatically adjusting white balance in response to luminance information signal and color information signal obtained from image sensing device
US5170202A (en) * 1990-07-03 1992-12-08 Eastman Kodak Company Contrast-based autofocus mechanism
US5530474A (en) * 1991-09-05 1996-06-25 Canon Kabushiki Kaisha White balance correction device with correction signal limiting device
US5475769A (en) 1992-07-13 1995-12-12 Polaroid Corporation Method and apparatus for recovering image data through the use of a color test pattern
US5905530A (en) * 1992-08-24 1999-05-18 Canon Kabushiki Kaisha Image pickup apparatus
FR2703814B1 (fr) * 1993-04-08 1995-07-07 Sagem Afficheur matriciel en couleurs.
US6330085B1 (en) * 1995-07-20 2001-12-11 Canon Kabushiki Kaisha Image processing apparatus and method
US5805213A (en) * 1995-12-08 1998-09-08 Eastman Kodak Company Method and apparatus for color-correcting multi-channel signals of a digital camera
US5652621A (en) * 1996-02-23 1997-07-29 Eastman Kodak Company Adaptive color plane interpolation in single sensor color electronic camera
US5778106A (en) * 1996-03-14 1998-07-07 Polaroid Corporation Electronic camera with reduced color artifacts
US6256058B1 (en) * 1996-06-06 2001-07-03 Compaq Computer Corporation Method for simultaneously compositing a panoramic image and determining camera focal length
US6411331B1 (en) * 1997-02-28 2002-06-25 Hewlett-Packard Company Automatic white balance detection and correction of an image captured in a digital camera
US6075926A (en) * 1997-04-21 2000-06-13 Hewlett-Packard Company Computerized method for improving data resolution
US6044177A (en) * 1997-06-18 2000-03-28 Hewlett-Packard Company Artifact reduction decompression method and apparatus for interpolated images
US6366319B1 (en) * 1997-07-03 2002-04-02 Photronics Corp. Subtractive color processing system for digital imaging
US6046772A (en) * 1997-07-24 2000-04-04 Howell; Paul Digital photography device and method
US6348929B1 (en) * 1998-01-16 2002-02-19 Intel Corporation Scaling algorithm and architecture for integer scaling in video
EP0930789B1 (de) * 1998-01-20 2005-03-23 Hewlett-Packard Company, A Delaware Corporation Farbbildaufnahmegerät
US5990950A (en) * 1998-02-11 1999-11-23 Iterated Systems, Inc. Method and system for color filter array multifactor interpolation
US6392699B1 (en) * 1998-03-04 2002-05-21 Intel Corporation Integrated color interpolation and color space conversion algorithm from 8-bit bayer pattern RGB color space to 12-bit YCrCb color space
US6236433B1 (en) * 1998-09-29 2001-05-22 Intel Corporation Scaling algorithm for efficient color representation/recovery in video

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010030108A1 (de) 2010-06-15 2011-12-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Farbbildsensor
WO2011157696A2 (de) 2010-06-15 2011-12-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Farbbildsensor
US9013623B2 (en) 2010-06-15 2015-04-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Color image sensor

Also Published As

Publication number Publication date
US7030917B2 (en) 2006-04-18
EP0996293B1 (de) 2004-11-24
EP0996293A3 (de) 2001-04-11
EP0996293A2 (de) 2000-04-26
US20030197796A1 (en) 2003-10-23
JP2000134634A (ja) 2000-05-12
DE69922129D1 (de) 2004-12-30
JP4328424B2 (ja) 2009-09-09

Similar Documents

Publication Publication Date Title
DE69922129T2 (de) Farbbildverarbeitungssystem
DE60221757T2 (de) Verfahren und Vorrichtung zur gleichzeitigen Entfernung des Mosaikeffekts und Grössenänderung von Rohbilddaten
DE69920638T2 (de) Auflösungsverbesserung aus Mehrfach-Bildern einer Szene, die eine Bewegung in nichtganzzahligen Pixelwerten enthält
DE60113949T2 (de) Verfahren zur komprimierung eines bildes aus einer spärlich abgetasteten bildsensoreinrichtung mit erweitertem dynamikumfang
DE69733882T2 (de) Kamera mit einem einzigen bildaufnehmer
DE60133160T2 (de) Digitalbild-Verarbeitungsverfahren und Vorrichtung zur Helligkeitseinstellung von Digitalbildern
DE60104508T2 (de) Verfahren und vorrichtung zum erzeugen eines bildes geringer auflösung aus einem spärlich abgetasteten bild mit erweitertem dynamikbereich
DE60211870T2 (de) System und verfahren zur asymmetrischen entfernung des mosaikeffektes in rohbilddaten unter verwendung eines farbunterschiedausgleichs
DE60104632T2 (de) Verfahren und System zur Rauschbeseitigung für ein spärlich abgetastetes Bild mit erweitertem Dynamikbereich
EP1231564B1 (de) Digitale lokale Bildeigenschaftssteuerung mittels Masken
DE69628866T2 (de) Adaptive Interpolation von Farbflächen in einer elektronischen Farbkamera mit nur einem Sensor
US7379612B2 (en) Dynamic reconstruction of high-resolution video from color-filtered low-resolution video-to-video super-resolution
DE102006038646B4 (de) Bildverarbeitungsvorrichtung für Farb-Bilddaten
EP2929503B1 (de) Verfahren und vorrichtung zur erzeugung eines verbesserten farbbildes mit einem sensor mit farbfilter
DE112011102647T5 (de) Verfahren zur Herstellung von super-auflösenden Bildern und nicht-linearer Filter zu dessen Implementierung
DE102016112968B4 (de) Bestimmung von Farbwerten für Pixel an Zwischenpositionen
DE60119904T2 (de) Vorrichtung und Verfahren zur Entfernung des Mosaikeffekts in Rohbilddaten im Hinblick auf die Datenkompression
DE69927239T2 (de) System und verfahren zur verarbeitung von bildern
DE112017007695T5 (de) Facettenaugen-bildaufnahmevorrichtung, bildverarbeitungsverfahren, programm und aufzeichnungsmedium
DE60023619T2 (de) Bildverarbeitungsvorrichtung zur Verringerung der Abtastfrequenz und zur Interpolation eines Bildsignals von einem Sensor mit Farbfilteranordnung
DE60131949T2 (de) Verfahren und Vorrichtung zur Durchführung von Tonwertskalenmodifikationen
EP2567539B1 (de) Bildsensor und verfahren zum aufnehmen eines bildes
DE112018002992T5 (de) Bildgebungseinrichtung, bildgebungselement und bildverarbeitungsverfahren
DE69827540T2 (de) Signalverarbeitungssystem
DE102014008686A1 (de) Verfahren und Vorrichtung zur Farbinterpolation

Legal Events

Date Code Title Description
8327 Change in the person/name/address of the patent owner

Owner name: HEWLETT-PACKARD DEVELOPMENT CO., L.P., HOUSTON, TE

8364 No opposition during term of opposition