DE60129652T2 - Bildwiederauffindungssystem und Methode mit semantischer und eigenschaftenbasierter Relevanzrückmeldung - Google Patents

Bildwiederauffindungssystem und Methode mit semantischer und eigenschaftenbasierter Relevanzrückmeldung Download PDF

Info

Publication number
DE60129652T2
DE60129652T2 DE60129652T DE60129652T DE60129652T2 DE 60129652 T2 DE60129652 T2 DE 60129652T2 DE 60129652 T DE60129652 T DE 60129652T DE 60129652 T DE60129652 T DE 60129652T DE 60129652 T2 DE60129652 T2 DE 60129652T2
Authority
DE
Germany
Prior art keywords
image
images
user
query
feedback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60129652T
Other languages
English (en)
Other versions
DE60129652D1 (de
Inventor
Wen-Yin Ba Gou Nan Lu Beijing 010 Liu
Hong-Jiang Beijing Zhang
Ye Lu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of DE60129652D1 publication Critical patent/DE60129652D1/de
Application granted granted Critical
Publication of DE60129652T2 publication Critical patent/DE60129652T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5862Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using texture
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • Y10S707/99934Query formulation, input preparation, or translation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • Y10S707/99935Query augmenting and refining, e.g. inexact access

Description

  • Die Erfindung betrifft Bildrecherchesysteme.
  • Digitalisierte Bilder erfreuen sich immer größerer Beliebtheit auf Grund verbesserter Verarbeitungstechnologien für digitalisierte Bilder und einfacher Verfügbarkeit, die durch das Internet erleichtert wird. Täglich stehen immer mehr digitalisierte Bilder zur Verfügung.
  • Automatische Bildrecherchesysteme bieten den Benutzern effiziente Möglichkeiten, durch die wachsende Anzahl von verfügbaren Bildern zu navigieren. Herkömmliche Bildrecherchesysteme gestatten es den Benutzern, Bilder auf eine von zwei Arten abzufragen: (1) stichwortbasierte Bildrecherche oder (2) inhaltsbasierte Bildrecherche. Die stichwortbasierte Bildrecherche sucht Bilder durch Abgleichen von Stichwörtern aus einer Benutzerabfrage mit Stichwörtern, die den Bildern manuell hinzugefügt worden sind. Eine der bekannteren Sammlungen von kommentierten Bildern ist Corel Gallery, eine Bilddatenbank von Corel Corporation, die über eine Million kommentierter Bilder enthält.
  • Ein Problem bei stichwortbasierten Bildrecherchesystemen ist, dass es für einen Benutzer schwierig oder unmöglich sein kann, die inhärente Komplexität gewisser Bilder präzise zu beschreiben. Als Ergebnis dessen kann die Recherchegenauigkeit stark eingeschränkt sein, weil Bilder, die nicht beschrieben werden können, oder die nur uneindeutig beschrieben werden können, nicht erfolgreich abgefragt werden. Außerdem gibt es auf Grund der enormen Last von manuellen Kommentaren wenige Datenbanken mit kommentierten Bildern, obwohl sich dies ändert.
  • Die inhaltsbasierte Bildrecherche (CBIR) sucht Bilder, die Grundmerkmalen eines Beispiels ähnlich sind, wie beispielsweise Farbhistogramm, Struktur, Form und so weiter. Obwohl die CBIR das Problem von stichwortbasierter Bildrecherche löst, weist sie auch starke Defizite auf. Ein Nachteil der CBIR ist, dass Suchvorgänge vollkommen irrelevante Bilder zurückgeben können, die zufälligerweise ähnliche Merkmale besitzen. Außerdem enthalten einzelne Objekte in Bildern eine große Bandbreite von Grundmerkmalen.
  • Daher beschreibt die Verwendung der Grundmerkmale allein nicht zufriedenstellend, was abgefragt werden soll.
  • Um die in der CBIR zurückgegebenen irrelevanten Bilder auszusondern, setzen einige CBIR-basierte Bildrecherchesysteme ein Benutzer-Feedback ein, um hinsichtlich der Relevanz gewisser Bilder zu einem Verständnis zu gelangen. Nach einer Erstabfrage schätzen solche Systeme die ideale Abfrage des Benutzers, indem sie die vom Benutzer eingegebenen positiven und negativen Antworten auf die von der Abfrage zurückgegebenen Bilder überwachen. Dieser Ansatz reduziert für einen Benutzer die Notwendigkeit, akkurate Erstabfragen bereitzustellen.
  • Ein Typ eines Ansatzes eines Relevanz-Feedbacks besteht darin, ideale Abfrageparameter zu schätzen, wobei nur die Grundbildmerkmale verwendet werden. Dieser Ansatz funktioniert gut, wenn die Merkmalsvektoren das Wesentliche der Abfrage erfassen können. Wenn der Benutzer zum Beispiel nach einem Bild mit komplexen Strukturen sucht, die eine bestimmte Farbkombination aufweisen, wäre diese Abfrage extrem schwierig zu beschreiben, kann aber durch eine Kombination von Farb- und Strukturmerkmalen einigermaßen dargestellt werden. Daher kann der Prozess des Relevanz-Feedbacks mit einigen positiven und negativen Beispielen einigermaßen akkurate Ergebnisse zurückgeben. Wenn der Benutzer andererseits nach einem spezifischen Objekt sucht, das durch Kombinationen von verfügbaren Merkmalsvektoren nicht ausreichend dargestellt werden kann, geben diese Relevanz-Feedback-Systeme nicht viele relevante Ergebnisse zurück, auch nicht mit einer großen Anzahl von Benutzer-Feedbacks.
  • Einige Forscher haben versucht, Modelle auf die Bildrecherche anzuwenden, die in der Textinformationsrecherche verwendet werden. Eines der beliebtesten Modelle, das in der Textinformationsrecherche verwendet wird, ist das Vektormodell. Das Vektormodell wird in solchen Schriften beschrieben, wie von Buckley und Salton, "Optimization of Relevance Feedback Weights", in Proc. Of SIGIR '95; Salton und McGill, "Introduction to Modern Information Retrieval", McGraw-Hill Book Company, 1983; und W.M. Shaw, "Term-Relevance Computation and Perfect Retrieval Performance", Information Processing and Management. Verschiedene effektive Recherche-Techniken wurden für dieses Modell entwickelt, und viele setzen Relevanz-Feedback ein.
  • Die meisten der bisherigen Relevanz-Feedback-Recherchen können in zwei Ansätze klassifiziert werden: Abfragepunktverschiebung (query point movement) und Neugewichtung (re-weighting). Das Verfahren der Abfragepunktverschiebung versucht im Wesentlichen, die Schätzung eines "idealen Abfragepunkts" zu verbessern, indem es ihn zu guten Beispielpunkten hin und von schlechten Beispielpunkten weg verschiebt. Die häufig verwendete Technik zum iterativen Verbessern dieser Schätzung ist die im Folgenden angegebene Rocchio-Formel für Gruppen von relevanten Dokumenten D'R und nicht-relevanten Dokumenten D'N, die vom Benutzer zur Kenntnis genommen worden sind:
    Figure 00030001
    wobei α, β und γ geeignete Konstanten sind, und NR' und NN' jeweils die Anzahl von Dokumenten D'R und D'N sind. Diese Technik ist zum Beispiel in dem MARS-System implementiert, wie von Rui, Y., Huang, T.S. und Mehrotra, S. in "Content-Based Image Retrieval with Relevance Feedback in MARS" in Proc. IEEE Int. Conf. On Image Proc., 1997 beschrieben.
  • Das Hauptkonzept hinter dem Neugewichtungs-Verfahren ist sehr einfach und intuitiv. Da jedes Bild durch einen N-dimensionalen Merkmalsvektor dargestellt wird, kann das Bild als ein Punkt in einem N-dimensionalen Raum betrachtet werden. Wenn daher die Abweichung der guten Beispiele entlang einer Hauptachse j hoch ist, sind die Werte auf dieser Achse sehr wahrscheinlich für die eingegebene Abfrage nicht sehr relevant, und der Achse kann eine niedrige Gewichtung wj zugewiesen werden. Daher wird die Umkehrung der Standardabweichung der j-ten Merkmalswerte in der Merkmalsmatrix als das Grundkonzept zum Aktualisieren der Gewichtung wj verwendet. Das oben erwähnte MARS-System implementiert eine leichte Verfeinerung in dem Neugewichtungsverfahren, das als Standardabweichungsverfahren bezeichnet wird.
  • In letzter Zeit sind rechnerisch robustere Verfahren für die Durchführung einer globalen Optimierung vorgeschlagen worden. Ein solcher Vorschlag ist das MindReader-Recher chesystem, das in Ishikawa, Y., Subramanya R. und Faloutsos, C., "Mindreader: Query Databases Through Multiple Examples", in Proc. der 24. VLDB Conference, (New York), 1998 beschrieben wird. Es formuliert ein Minimierungsproblem im Parameterschätzungsprozess. Im Gegensatz zu herkömmlichen Recherchesystemen mit einer Abstandsfunktion, die durch Ellipsen dargestellt werden kann, die auf die Koordinatenachse ausgerichtet sind, schlug das MindReader-System eine Abstandsfunktion vor, die nicht notwendigerweise auf die Koordinatenachse ausgerichtet ist. Daher ermöglicht es Korrelationen zwischen Attributen zusätzlich zu verschiedenen Gewichtungen auf jeder Komponente.
  • Eine weitere Verbesserung hinsichtlich dieses Ansatzes wird in Rui, Y., Huang, T.S., "A Novel Relevance Feedback Technique in Image Retrieval", ACM Multimedia, 1999 beschrieben. Ihr CBIR-System formuliert nicht nur das Optimierungsproblem, sondern berücksichtigt auch das mehrstufige Bildmodell.
  • Alle oben beschriebenen Ansätze führen ein Relevanz-Feedback auf der Grundmerkmalsvektor-Ebene in der Bildrecherche durch, berücksichtigen aber keinerlei Semantik für die Bilder selbst. Das inhärente Problem bei diesen Ansätzen besteht darin, dass die Einführung des in der Textinformationsrecherche verwendeten Relevanz-Feedbacks in die Bildrecherche sich als nicht so erfolgreich erweist wie erhofft. Dies ist primär darauf zurückzuführen, dass Grundmerkmale oft nicht so leistungsstark bei der Darstellung eines vollständigen semantischen Inhalts von Bildern sind.
  • Als Ergebnis dessen bemühte man sich, Semantik in das Relevanz-Feedback für die Bildrecherche zu integrieren. In Lee, Ma und Zhang, "Information Embedding Based on User's Relevance Feedback for Image Retrieval", Technical Report HP Labs, 1998, schlagen die Autoren ein Bezugssystem vor, das versucht, semantische Informationen unter Verwendung einer Korrelationsmatrix in einen grundmerkmalsbasierten Bildrechercheprozess einzubetten. In diesem Rahmen ergibt sich die semantische Relevanz zwischen Bild-Clustern aus dem Feedback eines Benutzers und wird zum Verbessern der Rechercheleistung verwendet.
  • Es bleibt jedoch ein Bedarf in Bezug auf Verbesserungen in den Bildrecherchesystemen und den Verfahren bestehen, die mit Relevanz-Feedback arbeiten. Die Erfinder schlagen ein System vor, das sowohl Semantik als auch Grundmerkmale auf eine neue Art und Weise in den Relevanz-Feedback-Prozess integriert. Nur wenn die Semantikinformationen nicht zur Verfügung stehen, wird die Technik im speziellen Fall auf einen der vorher beschriebenen Ansätze des Grund-Feedbacks reduziert.
  • US-A-5 899 999 offenbart ein iteratives Faltungsfilter (convolution filter), das besonders für den Einsatz in einem Bildklassifizierungs- und Recherchesystem geeignet ist. Ein Benutzer stellt eine textbasierte Abfrage bereit, die zu einem Datenbank-Manager weitergeleitet wird. Der Datenbank-Manager greift dann auf alle Einträge in der Datenbank zu, die einen oder mehrere Begriffe in der Abfrage enthalten. Der Benutzer kann alle oder einige Bilder auswählen, die als eine Vorschau dargestellt sind. Im Block 430 werden der Durchschnitt und Abweichungsvektoren für Signaturen der Abfragebilder berechnet. Diejenigen Bilder, die die höchsten Ähnlichkeitsmaße besitzen, werden für den Benutzer dargestellt.
  • US-A-5 020 019 offenbart ein Dokumentrecherchesystem einschließlich eines Lernkontrollabschnitts, der dazu dient, die Quote (rate) jeder Stichwortverbindung zu modifizieren.
  • US-A-6 076 088 offenbart ein System und ein Verfahren zur Informationsextraktion unter Verwendung einer Dreiergruppe Konzept-Relation-Konzept (CRC) (Concept Relation Concept).
  • US-A-5 297 042 offenbart ein Stichwortverbindungs-Dokumentrecherchesystem, das eine Gruppe von Dokumenten abfragen kann, die von einem Benutzer angefordert werden. Eine Eingabe-Analyseeinheit 1 führt die Stichwortdaten und Quotendaten (rate data) Qk für alle Stichwortdaten, die durch die Analyse der Recherchebedingung erhalten wurden, der inhaltsorientierten (associative) Rechercheeinheit 2 zu. Bei den Quotendaten Q wird davon ausgegangen, dass sie in einem Bereich zwischen 0 und 1 liegen. Beziehungswerte und Gewichtungswerte werden in der inhaltsorientierten Rechercheeinheit 2 eingestellt. Jeder der Beziehungswerte wird als der Grad der Beziehung zwischen den Stichwörtern definiert, und jeder der Gewichtungswerte wird als der Grad der Gewichtung des Stichworts in jedem Dokument definiert. Der Relevanzwert jedes Dokuments stellt den Grad der Relevanz bezüglich der Zufriedenstellung der Anforderung des Benutzers dar. Der Ausgabe-Controller 3 sortiert alle Dokumente in einer absteigenden Reihenfolge des Reievanzwerts und erstellt eine Dokumentenliste, in der die Dokumente in dieser Reihenfolge angeordnet werden. Der Benutzer bestimmt, ob das auf der Anzeigeeinheit angezeigte Rechercheergebnis für den Benutzer zufriedenstellend ist oder nicht. Eine Lerneinheit 4 ändert die Beziehungswerte und die Gewichtungswerte auf der Basis der vom Benutzer bereitgestellten Lehrdaten (teacher data).
  • Es ist die Aufgabe der vorliegenden Erfindung, verbesserte Verfahren, Bildrecherchesysteme, Datenbankstrukturen und entsprechende computerlesbare Medien bereitzustellen, um auf eine Benutzerabfrage hin Bilder in einer Datenbank zu suchen.
  • Diese Aufgabe wird durch den Gegenstand der selbstständigen Ansprüche gelöst.
  • Bevorzugte Ausführungsformen werden durch den Gegenstand der Unteransprüche definiert.
  • Ein Bildrecherchesystem führt sowohl eine stichwortbasierte als auch eine inhaltsbasierte Bildrecherche durch. Eine Benutzerschnittstelle ermöglicht es einem Benutzer, eine Abfrage unter Verwendung einer Kombination von Stichwörtern und Beispielbildern zu spezifizieren. Abhängig von der Eingabeabfrage sucht das Bildrecherchesystem Bilder mit Stichwörtern, die mit den Stichwörtern in der Abfrage und/oder Bildern mit ähnlichen Grundmerkmalen, wie beispielsweise Farbe, Struktur und Form übereinstimmen. Das System sortiert die Bilder der Rangfolge nach und gibt sie an den Benutzer zurück.
  • Die Benutzerschnittstelle ermöglicht es dem Benutzer, sowohl Bilder zu identifizieren, die für die Abfrage relevanter sind, als auch Bilder, die weniger oder nicht relevant sind. Das Bildrecherchesystem überwacht das Benutzer-Feedback und verwendet es zum Verfeinern aller Suchbemühungen und um sich selbst für künftige Suchabfragen zu schulen.
  • In der beschriebenen Implementierung nimmt das Bildrecherchesystem eine nahtlose Integration von merkmalsbasiertem Relevanz-Feedback und semantikbasiertem Relevanz-Feedback vor. Mit merkmalsbasiertem Relevanz-Feedback lernt das System, wel che Grundmerkmale zu relevanten Bildern führen, und gruppiert solche Merkmale zusammen, um künftige Suchvorgänge zu unterstützen.
  • Mit semantikbasiertem Relevanz-Feedback lernt das Bildrecherchesystem, welche Stichwörter mit den relevanten Bildern identifiziert werden, und verstärkt die Verbindungen zwischen den Stichwörtern und Bildern. Insbesondere werden die Bilder und Stichwörter in einer Datenbank verwaltet, und um Verbindungen zwischen den Stichwörtern und Bildern zu definieren, wird auf der Bilddatenbank ein semantisches Netzwerk aufgebaut und aktualisiert, wenn Benutzer-Feedbacks bereitgestellt werden. Den Stichwort-Bild-Verbindungen werden Gewichtungen zugewiesen, um anzugeben, wie relevant das Stichwort für das Bild ist. Die Gewichtungen werden dem Benutzer-Feedback entsprechend angepasst, wodurch die Verbindungen zwischen Stichwörtern und Bildern, die als relevanter identifiziert worden sind, verstärkt werden, und die Verbindungen zwischen Stichwörtern und Bildern, die als weniger relevant identifiziert worden sind, abgeschwächt werden.
  • 1 ist ein Blockschaltbild eines beispielhaften Computer-Netzwerks, in dem ein Server-Computer ein Bildrecherchesystem implementiert, auf das über ein Netzwerk von einem oder mehreren Client-Computern zugegriffen werden kann.
  • 2 ist ein Blockschaltbild der Architektur des Bildrecherchesystems.
  • 3 veranschaulicht ein Semantik-Netzwerk, das Beziehungen zwischen Stichwörtern und Bildern darstellt.
  • 4 ist ein Ablaufdiagramm eines Erstabfrage-Verarbeitungsprozesses, in dem ein Benutzer erstmals eine Stichwortabfrage für ein Bild vorlegt.
  • 5 ist ein Ablaufdiagramm eines Verfeinerungs- und Lernprozesses, in dem das Bildrecherchesystem aus dem dazugehörigen Benutzer-Feedback lernt, wie relevant die Bilder für die Erstabfrage sind.
  • 6 veranschaulicht eine erste Bildschirmansicht einer Benutzerschnittstelle für das Bildrecherchesystem.
  • 7 veranschaulicht eine zweite Bildschirmansicht der Benutzerschnittstelle für das Bildrecherchesystem.
  • Diese Offenbarung beschreibt ein Bildrecherchesystem, das sowohl eine stichwortbasierte als auch inhaltsbasierte Bildrecherche durchführt. Das System nimmt eine nahtlose Integration von merkmalsbasiertem Relevanz-Feedback und semantikbasiertem Relevanz-Feedback vor. Das Bildrecherchesystem unterstützt auch ein Semantik-Netzwerk, das auf einer Bilddatenbank aufgebaut ist, um Stichwörter mit Bildern zu verbinden, und arbeitet mit Maschinenlernen (machine learning), um das Semantik-Netzwerk basierend auf dem Benutzer-Feedback anzupassen.
  • Die Bildrecherche-Architektur wird im Kontext eines internetbasierten Systems beschrieben, in dem ein Server das Bildrecherchesystem betreibt, und Clients Benutzerabfragen an den Server weiterleiten. Die Architektur kann jedoch in anderen Umgebungen implementiert werden. Zum Beispiel kann die Bildrecherche-Architektur in nicht-internetbasierten Client-Server-Systemen oder auf einem nicht-vernetzten Computersystem implementiert werden.
  • Beispielhafte Rechenumgebung
  • 1 zeigt ein beispielhaftes Computer-Netzwerksystem 100, in welches das Bildrecherchesystem implementiert werden kann. Das Netzwerksystem 100 umfasst einen Client-Computer 102, der Abfragen an einen Server-Computer 104 über ein Netzwerk 106, wie beispielsweise das Internet, weiterleitet. Obwohl das Bildrecherchesystem unter Verwendung anderer Netzwerke implementiert werden kann, (z.B. Weitverkehrsnetz oder lokales Netzwerk), und nicht auf das Internet begrenzt werden soll, wird das System im Kontext des Internets als eine geeignete Implementierung beschrieben. Das webbasierte Recherchesystem ermöglicht es mehreren Benutzern, Rechercheaufgaben jederzeit gleichzeitig durchzuführen.
  • Der Client 102 ist repräsentativ für viele verschiedene Computer, (z.B. Desktop-Computer, Laptop-Computer usw.), Netzwerkgeräte, (z.B. Set-Top-Box (STB), Spielkonsole usw.) und dergleichen. Der Client 102 umfasst einen Prozessor 110, einen flüchtigen Speicher 112 (z.B. RAM) und einen nicht-flüchtigen Speicher 114 (z.B. ROM. Flash, Festplatte, Bildplatte usw.). Der Client 102 weist auch eine oder mehrere Eingabevorrichtungen 116 (z.B. Tastatur, Tastenfeld, Maus, Fernbedienung, Schreibnadel, Mikrofon usw.) und eine Anzeigevorrichtung 118 zum Anzeigen von Bildern auf, die von dem Bildrecherchesystem zurückgegeben werden.
  • Der Client 102 ist mit einem Browser 120 ausgestattet, der im nicht-flüchtigen Speicher 114 gespeichert ist und im Prozessor 110 ausgeführt wird. Der Browser leitet über das Netzwerk 106 Abfragen an den Server 104 weiter und empfängt Antworten von diesem. Zu Diskussionszwecken kann der Browser 120 als ein herkömmlicher Internet-Browser konfiguriert werden, der Dokumente empfangen und wiedergeben kann, die in einer Auszeichnungssprache geschrieben sind, wie beispielsweise HTML (Hypertext Markup Language). Der Browser kann des Weiteren zum Darstellen der Bilder auf der Anzeigevorrichtung 118 verwendet werden.
  • Der Server 104 ist repräsentativ für viele verschiedene Server-Umgebungen, einschließlich eines Servers für ein lokales Netzwerk oder ein Weltverkehrsnetz, ein Backend für einen derartigen Server oder einen Web-Server. In dieser letzteren Umgebung eines Web-Servers kann der Server 104 als einer oder mehrere Computer implementiert werden, die mit einer Server-Software konfiguriert sind, um eine Site im Internet 106, wie beispielsweise eine Web-Site, zum Suchen zu betreiben.
  • Der Server 104 weist einen Prozessor 130, einen flüchtigen Speicher 132 (z.B. RAM) und einen nicht-flüchtigen Speicher 134 (z.B. ROM, Flash, Festplatte, Bildplatte, RAID-Speicher usw.) auf. Der Server 104 betreibt ein Betriebssystem 136 und ein Bildrecherchesystem 140. Zu Veranschaulichungszwecken sind das Betriebssystem 136 und das Bildrecherchesystem 140 als diskrete Blöcke dargestellt, die in dem nicht-flüchtigen Speicher 134 gespeichert sind, obwohl anerkannt wird, dass solche Programme und Komponenten zu verschiedenen Zeiten in verschiedenen Speicherkomponenten des Servers 104 resident sind und von dem Prozessor 130 ausgeführt werden. Im Allgemeinen sind diese Software-Komponenten im nicht-flüchtigen Speicher 134 gespeichert und werden von da aus für die Ausführung auf dem Prozessor 130 wenigstens teilweise in den flüchtigen Hauptspeicher 132 geladen.
  • Das Bildrecherchesystem 140 sucht nach Bildern, die in der Bilddatenbank 142 gespeichert sind. Das Bildrecherchesystem 140 umfasst einen Abfrage-Handler 150, eine Merkmals- und Semantik-Abgleicheinrichtung 152 und eine Feedback-Analysiereinrichtung 154.
  • Der Abfrage-Handler 150 bearbeitet Abfragen, die vom Client 102 empfangen werden. Die Abfragen können in Form von Abfragen in natürlicher Sprache, Einzelwortabfragen oder Bildabfragen vorliegen, die Grundmerkmale eines Beispielbilds enthaften, das die Grundlage der Suche bildet. Abhängig vom Abfragetyp initiiert der Abfrage-Handler 150 eine stichwort- oder merkmalsbasierte Suche in der Bilddatenbank 142.
  • Die Merkmals- und Semantik-Abgleicheinrichtung 152 versucht Bilder in der Datenbank 142 zu finden, die Grundmerkmale enthalten, die dem Beispielbild ähnlich sind und/oder zugehörige Stichwörter aufweisen, die mit Stichwörtern in der Benutzerabfrage übereinstimmen. Die Merkmals- und Semantik-Abgleicheinrichtung 152 verwendet ein Semantik-Netzwerk, um Bilder mit ähnlichen Stichwörtern ausfindig zu machen. Das Semantik-Netzwerk definiert Verbindungen zwischen den Stichwörtern und Bildern. Den Verbindungen werden Gewichtungen zugewiesen, um anzugeben, wie relevant gewisse Stichwörter für die Bilder sind. Ein beispielhaftes Semantik-Netzwerk wird im Folgenden ausführlicher unter Bezugnahme auf 3 beschreiben.
  • Die Merkmals- und Semantik-Abgleicheinrichtung 152 ordnet die Bilder ihrer Relevanz für die Abfrage entsprechend nach ihrem Rang ein und gibt die Bilder in der Rangreihenfolge zur Überprüfung durch den Benutzer zurück. Über eine Benutzerschnittstelle kann der Benutzer einzelne Bilder als für die Abfrage relevanter oder als weniger oder nicht relevant für die Abfrage kennzeichnen oder andennreitig identifizieren.
  • Die Feedback-Analysiereinrichtung 154 überwacht das Benutzer-Feedback und analysiert, welche Bilder als für die Suche relevant erachtet werden und welche nicht. Die Feedback-Analysiereinrichtung 154 verwendet das Relevanz-Feedback, um das Semantik-Netzwerk in der Bilddatenbank zu schulen. Zum Beispiel kann die Feedback-Analysiereinrichtung 154 die Kommentare zu relevanten Bilden modifizieren, damit sie den Stichwörtern in der Suchabfrage besser entsprechen. Die Analysiereinrichtung 154 kann auch die Gewichtungen des Semantik-Netzwerks durch Verstärken der Verbindun gen zwischen Stichwörtern der Suchabfrage und relevanten Bildern und Abschwächen der Verbindungen zwischen Stichwörtern und nicht-relevanten Bildern anpassen.
  • Dementsprechend nimmt das Bildrecherchesystem eine nahtlose lntegration von inhaltsbasierter Bildrecherche (CBIR) und semantikbasierter Bildrecherche vor. Das System integriert auch semantik- und merkmalsbasiertes Relevanz-Feedback. Das System weist enorme Vorteile hinsichtlich Recherchegenauigkeit und Benutzerfreundlichkeit auf.
  • Architektur des Bildrecherchesystems
  • 2 veranschaulicht die Architektur des Bildrecherchesystems 140 ausführlicher. Sie weist eine Benutzerschnittstelle (UI) 200 auf, die sowohl textbasierte Stichwortabfragen oder Abfragen in natürlicher Sprache und die Auswahl von Beispielbildern akzeptiert. Somit kann ein Benutzer wählen, ob er Wörter eingibt oder ein Beispielbild auswählt, das als erste Suchabfrage verwendet werden soll. Die UI 200 stellt auch Navigationswerkzeuge bereit, um es dem Benutzer zu ermöglichen, mehrere Bilder zu durchsuchen. Im Netzwerksystem von 1 kann die UI 200 als HTML-Dokument bedient und auf der Client-Anzeige wiedergegeben werden. Eine beispielhafte Implementierung der Benutzerschnittstelle 200 wird im Folgenden ausführlicher unter der Überschrift "Benutzerschnittstelle" beschrieben.
  • Die Abfrage wird an den Abfrage-Handler 150 übergeben. In der veranschaulichten Implementierung umfasst der Abfrage-Handler 150 einen Parser 202 für natürliche Sprache zum Parsen von textbasierten Abfragen, wie beispielsweise Stichwörter, Phrasen und Sätze. Der Parser 202 ist so konfiguriert, dass er Stichwörter aus der Abfrage extrahiert und syntaktische und semantische Informationen aus Abfragen in natürlicher Sprache verwenden kann, um Stichwörter besser zu verstehen und zu identifizieren. Die analysierten Ergebnisse werden als Eingabe in das Semantik-Netzwerk verwendet, das Stichwörter mit Bilder in der Datenbank 142 verbindet.
  • 3 stellt ein Semantik-Netzwerk 300 bildlich dar. Das Netzwerk definiert Stichwort-Bild-Verknüpfungen, die Stichwörter 302(1), 203(2), ..., 302(N) mit Bildern 304(1), 304(2), 304(3), ..., 304(M) in der Datenbank 142 verbinden. Die Stichwort-Bild-Verknüpfungen sind als Pfeile dargestellt. Gewichtungen w sind jeder einzelnen Verknüp fung zugewiesen, um den Grad an Relevanz darzustellen, mit dem ein Stichwort den semantischen Inhalt des verknüpften Bildes beschreibt. Zum Beispiel ist das erste Stichwort 302(1) mit drei Bildern 304(1)304(3) verbunden, und der Verbindung mit dem ersten Bild 304(1) ist eine Gewichtung w11 zugewiesen, der Verbindung mit dem zweiten Bild 304(2) ist eine Gewichtung w12 zugewiesen, und der Verbindung mit dem dritten Bild 304(3) ist eine Gewichtung w13 zugewiesen.
  • Es kann sein, dass Stichwort-Bild-Verbindungen zu Beginn nicht verfügbar sind. Es gibt jedoch mehrere Möglichkeiten, solche Verbindungen zu erhalten. Das erste Verfahren ist, Bilder einfach manuell zu kennzeichnen und der Stichwort-Bild-Verknüpfung eine starke Gewichtung zuzuweisen. Dieses Verfahren kann teuer und zeitaufwändig sein.
  • Um die Kosten der manuellen Kennzeichnung zu reduzieren, kann ein automatischer Ansatz verwendet werden. Ein möglicher Ansatz ist, das Internet und seine zahllosen Nutzer wirkungsvoll einzusetzen, indem ein Crawler implementiert wird, der verschiedene Web-Sites besucht und Bilder herunterlädt. Die zu dem Bild zugehörigen Daten, wie beispielsweise der Dateiname und die ALT-Tag-Zeichenfolge innerhalb der IMAGE-Tags der HTML-Dateien werden als Stichwörter gespeichert und dem heruntergeladenen Bild zugeordnet. Außerdem können die Verknüpfungszeichenfolge und der Titel der Seite irgendwie mit dem Bild in Beziehung stehen und daher als mögliche Stichwörter verwendet werden. Diesen Stichwort-Bild-Verknüpfungen werden dann ihrer Relevanz entsprechend Gewichtungen zugewiesen. Diese Informationen werden heuristisch in absteigender Rangfolge der Relevanz aufgelistet: (1) Verknüpfungszeichenfolge, (2) ALT-Tag-Zeichenfolge; (3) Dateiname und (4) Titel der Seite.
  • Ein weiterer Ansatz zum Integrieren von zusätzlichen Stichwörtern in das System besteht darin, die vom Benutzer eingegebenen Abfragen zu verwenden. Sobald der Benutzer für eine Gruppe von Bildern, die als für die Abfrage relevant gekennzeichnet sind, ein Feedback abgibt, werden die eingegebenen Stichwörter im System hinzugefügt und mit den Bildern in der Gruppe verknüpft. Da der Benutzer außerdem angibt, dass diese Bilder relevant sind, kann jeder der neu erstellten Verknüpfungen eine große Gewichtung zugewiesen werden. Dieser letztere Ansatz wird im Folgenden ausführlicher unter Bezugnahme auf 5 beschrieben.
  • Unter erneuter Bezugnahme auf 2 kann eine Situation eintreten, in der der Benutzer keine Textabfrage eingeben möchte. Stattdessen ist der Benutzer daran interessiert, ein Beispielbild auszuwählen und nach ähnlichen Bildern zu suchen. Um dieses Szenario aufzunehmen, gibt die Benutzerschnittstelle 200 eine Gruppe von Bildkategorien an, aus denen der Benutzer auswählen kann. Nach dem Auswählen einer Kategorie gibt das Bildrecherchesystem eine Beispielgruppe von Bildern zurück, die zu der Kategorie gehören.
  • Das Bildrecherchesystem nimmt dieses Szenario mit einer vordefinierten Konzepthierarchie 204 im Abfrage-Handler 150 auf. Die ausgewählte Kategorie wird an die Konzepthierarchie 204 übergeben, die Bilder der ersten Ebene, die der Kategorie entsprechen, aus der Bilddatenbank 142 identifiziert. Aus den Beispielbildern kann der Benutzer ein Bild als das Beispielbild identifizieren, Die Grundmerkmale des Beispielbilds werden dann verwendet, um eine inhaltsbasierte Bildrechercheoperation zu initiieren.
  • Die Merkmals- und Semantik-Abgleicheinrichtung 152 identifiziert Bilder in der Bilddatenbank 142, die mit der Benutzerabfrage verbundene Stichwörter aufweisen und/oder Grundmerkmale enthalten, die dem Beispielbild ähnlich sind. Die Merkmals- und Semantik-Abgleicheinrichtung 152 enthält eine Bildmerkmals-Extraktionseinrichtung 210, die Grundmerkmale aus den Kandidatenbildern in der Bilddatenbank 142 extrahiert. Solche Grundmerkmale umfassen Farbhistogramm. Struktur, Form und so weiter. Die Merkmals-Extraktionseinrichtung 210 übergibt Merkmale an eine Bildmerkmals-Abgleicheinrichtung 212, um die Grundmerkmale der Kandidatenbilder mit den Grundmerkmalen des Beispielbilds abzugleichen, das vom Benutzer weitergeleitet wurde. Kandidatenbilder mit ähnlicheren Merkmalen wird ein höherer Rang zugewiesen.
  • Für Textabfragen weist die Merkmals- und Semantik-Abgleicheinrichtung 152 eine Semantik-Abgleicheinrichtung 212 auf, um Bilder mit dazugehörigen Stichwörtern zu identifizieren, die mit den Stichwörtern aus der Abfrage übereinstimmen. Die Semantik-Abgleicheinrichtung 214 verwendet das Semantik-Netzwerk, um diese Bilder mit Verknüpfungen zu den Such-Stichwörtern ausfindig zu machen. Kandidatenbilder mit höher gewichteten Verknüpfungen wird ein höherer Rang zugewiesen.
  • Ein Ranking-Modul 216 weist den Bildern Rangfolgen so zu, dass die Bilder mit dem höchsten Rang als die bevorzugte Ergebnisse-Gruppe an den Benutzer zurückgegeben werden. Das Ranking berücksichtigt die Gewichtungen, die den Stichwort-Bild-Verknüpfungen zugewiesen worden sind, sowie die Merkmalsnähe zwischen zwei Bildern. Die Gruppe der Bilder mit dem höchsten Rang wird zur Benutzerschnittstelle 200 zurückgegeben und für den Benutzer zur Ansicht dargestellt.
  • Die Benutzerschnittstelle 200 gestattet es dem Benutzer, Bilder als mehr oder weniger relevant oder völlig irrelevant zu kennzeichnen. Die Feedback-Analysiereinrichtung 154 überwacht dieses Benutzer-Feedback. Eine Relevanz-Feedback-Überwachung 220 verfolgt das Feedback und führt sowohl semantikbasiertes Relevanz-Feedback als auch grundmerkmalsbasiertes Relevanz-Feedback integriert durch. Im Allgemeinen gleicht die Relevanz-Feedback-Überwachung 220 die Gewichtungen ab, die den Stichwort-Bild-Verknüpfungen zugewiesen sind, um das semantikbasierte Recherchemodell zu schulen, und verwendet Abfragepunktverschiebungs- oder Neugewichtungs-Techniken, um das merkmalsbasierte Recherchemodell zu verbessern. Die Feedback-Analysiereinrichtung 154 implementiert einen Maschinenlernalgorithmus 222 (machine learning algorithm), um das Semantik-Netzwerk und/oder Bilder in der Datenbank gemäß dem Relevanz-Feedback abzugleichen. Eine besondere Implementierung eines integrierten Bezugssystems für semantikbasiertes Relevanz-Feedback und merkmalsbasiertes Relevanz-Feedback wird im Folgenden ausführlicher unter der Überschrift "Integriertes Bezugssystem für Relevanz-Feedback" beschrieben.
  • Das Bildrecherchesystem 140 bietet viele Vorteile gegenüber herkömmlichen Systemen. Erstens macht es Bilder unter Verwendung von Stichwörtern und Grundmerkmalen ausfindig, wobei eine Integration von stichwortbasierter Bildrecherche und inhaltsbasierter Bildrecherche vorgenommen wird. Zusätzlich werden sowohl semantikbasiertes Relevanz-Feedback als auch merkmalsbasiertes Relevanz-Feedback integriert.
  • Bildrechercheprozess
  • 4 und 5 zeigen einen Bildrechercheprozess, der von dem Bildrecherchesystem 140 von 2 implementiert wird. Der Prozess erfordert eine erste Phase zum Produzieren einer Bildergebnisgruppe aus einer Erstabfrage (4) und eine zweite Phase zum Ver feinern der Ergebnisgruppe und Lernen aus den Ergebnissen und dem Benutzer-Feedback (5). In einer Implementierung wird der Bildrechercheprozess als computerausführbare Anweisungen implementiert, die, wenn sie ausgeführt werden, die Operationen durchführen, die als Blöcke in 4 und 5 veranschaulicht sind.
  • In einer Implementierung setzt der Prozess voraus, dass eine grobe Konzepthierarchie der verfügbaren Bilder vorhanden ist, obwohl diese Voraussetzung nicht notwendig ist. Zum Beispiel können Bilder von Personen grob als "Leute" und spezifischer als "Männer" und "Frauen" kommentiert werden. Außerdem können die Grundmerkmale der Bilder in der Bilddatenbank 142 offline berechnet und mit den Bildern über eine Datenstruktur korreliert werden. Damit wird jede potenzielle Verlangsamung beseitigt, die durch Berechnen von Grundmerkmalen während des Bildrechercheprozesses verursacht wird.
  • Am Block 402 empfängt das Bildrecherchesystem 140 eine Erstabfrage, die von einem Benutzer über die Benutzerschnittstelle 200 weitergeleitet wird. Angenommen, der Benutzer gibt eine Suchabfrage ein, um Bilder von "Tigern" ausfindig zu machen. Der Benutzer kann irgendeine der folgenden Abfragen eingeben:
    "Tiger"
    "Tigerfotos"
    "Fotos von Tigern suchen"
    "Ich suche nach Bildern von Tigern."
  • Am Block 404 analysiert der Abfrage-Handler 150 die Benutzerabfrage, um ein oder mehrere Stichwörter zu extrahieren. In unserem Beispiel kann das Stichwort "Tiger" aus jeder der Abfragen extrahiert werden. Andere Wörter, wie beispielsweise "Fotos" oder "Bilder" können ebenfalls extrahiert werden, aber zu Veranschaulichungszwecken konzentrieren wir uns auf das Stichwort "Tiger".
  • Am Block 406 durchsucht das Bildrecherchesystem 140 die Bilddatenbank 142, um Bilder zu identifizieren, die mit dem Stichwort "Tiger" kommentiert sind. Das System kann gleichzeitig auch nach ähnlichen Wörtern suchen (z.B. Katze, Tier usw.). Wenn irgendwelche Bilder in der Datenbank eine Zuordnungsverknüpfung mit dem Stichwort aufwei sen, (d.h. die Abzweigung "Ja" vom Block 408), werden solche Bilder in einen Ergebnisblock gestellt (Block 410). Die Bilder in der Ergebnisgruppe werden dann der Reihenfolge nach entsprechend den Gewichtungen sortiert, die den Stichwort-Bild-Verknüpfungen in dem Semantik-Netzwerk zugewiesen worden sind (Block 410). Wenn eine Gruppe von Bildern identifiziert worden ist, die mit dem Stichwort übereinstimmen, kann die Merkmals- und Semantik-Abgleicheinrichtung 152 auch versuchen, andere Bilder mit ähnlichen Grundmerkmalen wie denjenigen in der Ergebnisgruppe zu suchen (Block 414). Alle solchen Bilder werden dann der Ergebnisgruppe hinzugefügt. Die erweiterte Ergebnisgruppe wird dem Benutzer dann über die Benutzerschnittelle 200 angezeigt (Block 416).
  • Zu bemerken ist, dass, obwohl solche zusätzlichen Bilder anderen Bildern in der ursprünglichen Ergebnisgruppe ähnlich sein können, gewisse, über den Vergleich der Grundmerkmale entdeckte Bilder nichts mit dem Such-Stichwort zu tun haben können. Das heißt, die Operation 414 kann Bilder zurückgeben, die der Farbe oder Struktur eines anderen Bilds mit einem Tiger ähnlich sind, aber nirgendwo in dem Bild eine Spur von einem Tiger aufweisen.
  • Wenn mit der ersten Stichwort-Suche keine Bilder ausfindig gemacht werden können, (d.h. die Abzweigung "Nein" vom Block 408), kehrt das Bildrecherchesystem 140 zum Block 408 zurück und ruft Bilder in einer ersten Ebene der Konzepthierarchie ab (Block 420). Diese Bilder können zufällig aus einer oder mehreren Kategorien in der Hierarchie ausgewählt werden. Die Bilder werden dem Benutzer angezeigt, um mögliche Beispielbilder vorzuschlagen (Block 422).
  • Nach der Erstabfrage kann das Bildrecherchesystem 140 die Ergebnisse und das Benutzer-Feedback verwenden, um die Suche zu verfeinern und das Recherchemodell zu schulen. Der Verfeinerungs- und Lernprozess ist in 5 veranschaulicht.
  • Am Block 502 überwacht die Feedback-Analysiereinrichtung 154 das Benutzer-Feedback auf die Bilder in der Ergebnisgruppe. Der Benutzer kann eines oder mehrere Bilder als für die Suchabfrage relevant kennzeichnen oder anderweitig angeben. Dies kann zum Beispiel über einen Benutzerschnittstellen-Mechanismus erfolgen, in dem der Benutzer jedes Bild bewertet und (z.B. durch eine Mausklick-Operation) eine positive Mar kierung oder eine negative Markierung aktiviert, die mit dem Bild verbunden ist. Die positive Markierung gibt an, dass das Bild für die Suche relevanter ist, wogegen die negative Markierung angibt, dass das Bild weniger oder nicht relevant für die Suche ist.
  • Aus den Ergebnissen kann der Benutzer gewisse Bilder ersehen, die er als für die Suche relevant erachtet, und die Bilder auswählen, um eine gewünschte Gruppe zu produzieren (d.h. die Abzweigung "Ja" vom Block 504). In dieser Situation sind die Stichwörter in der ursprünglichen Abfrage mit den benutzergewählten Bildern verbunden, und der Zuordnungsverknüpfung wird eine große Gewichtung zugewiesen (Block 506). Der Verknüpfung wird eine große Gewichtung zugewiesen, weil eine höhere Konfidenz besteht, dass die Suche akkurat ist, wenn Stichwörter höchster Ebene zum Identifizieren von Bildern verwendet werden. In einer Implementierung sind die Gewichtungen zusätzlich. Somit Kann einer ersten Verknüpfung ein Wert von "1" zugewiesen werden, um eine Verbindung anzugeben. Wenn das Stichwort anschließend über Suchen mit dem Bild verbunden wird, kann die Gewichtung um "1" inkrementiert werden, so dass die Gewichtung mit der Zeit an Stärke zunimmt.
  • Am Block 508 werden ähnliche Grundmerkmale, die mit diesen Bildern korreliert sind, umstrukturiert, um im Merkmalsraum näher beieinander zu liegen. Für anschließende Suchvorgänge versteht das System dann die Absicht des Benutzers in Bezug auf gewisse Bilder bei Vorgabe des gleichen Stichworts besser.
  • Wenn der Benutzer keine Gruppe von Bildern sieht, die für die Suchabfrage relevant sind, (d.h. die Abzweigung "Nein" vom Block 504), kann der Benutzer ein Beispielbild wählen und die Suche verfeinern, um andere Bilder ausfindig zu machen, die ähnliche Merkmale wie diejenigen des gewählten Bilds aufweisen (Block 510). Wenn ein Beispielbild gewählt wird, (d.h. die Abzweigung "Ja" vom Block 510), werden die Stichwörter in der ursprünglichen Abfrage mit den benutzergewählten Bildern verbunden, und der Zuordnungsverknüpfung wird eine kleine Gewichtung zugewiesen (Block 512). Eine kleine Gewichtung wird der Verknüpfung zugewiesen, weil eine geringere Konfidenz besteht, dass Bildähnlichkeiten auf unterer Ebene ein ebenso akkurates Ergebnis produzieren wie das Ergebnis, das durch Stichwort-Übereinstimmungen produziert wird.
  • In Reaktion auf die Benutzerauswahl eines Beispielbilds zur Verfeinerung versucht der Abfrage-Handler 150, andere repräsentative Bilder in der nächsten Ebene der Konzepthierarchie zu finden (Block 514). Die Merkmals- und Semantik-Abgleicheinrichtung 152 versucht ebenfalls, Bilder ausfindig zu machen, die ähnliche Grundmerkmale wie das vom Benutzer gewählte Bild aufweisen (Block 516). Die sich daraus ergebende Gruppe von Bildern wird dem Benutzer dann angezeigt (Block 518).
  • Der Block 520 berücksichtigt die Situation, in der weder die ursprüngliche Abfrage irgendwelche relevanten Bilder zurückgegeben noch der Benutzer ein Bild zum Verfeinern der Suche gefunden hat. In dieser Situation gibt das Bildrecherchesystem Bilder in der Datenbank einfach seitenweise aus, um dem Benutzer ein Durchsuchen und Auswählen der relevanten Bilder für ein Feedback in das System zu gestatten.
  • Benutzerschnittstelle
  • Das Bildrecherchesystem 140 unterstützt drei Modi von Benutzer-Interaktion: stichwortbasierte Suche, Suche nach Beispielbildern und Durchsuchen der Bilddatenbank unter Verwendung einer vordefinierten Konzepthierarchie. Die Benutzerschnittstelle 200 nimmt diese drei Modi auf.
  • 6 zeigt ein Beispiel einer Abfrage-Bildschirmanzeige 600, die von der Benutzerschnittstelle 200 für die Eingabe einer Erstabfrage angezeigt wird. Die Bildschirmanzeige 600 zeigt einen Texteingabebereich für natürliche Sprache 602 an, der dem Benutzer das Eingeben von Stichwörtern oder Phrasen ermöglicht. Nach der Eingabe von einem oder mehreren Stichwörtern betätigt der Benutzer eine Schaltfläche 604, mit der die Suche nach relevanten Bildern initiiert wird. Alternativ kann der Benutzer eine vordefinierte Konzepthierarchie durchsuchen, indem er eine der im Abschnitt 606 der Abfrage-Bildschirmanzeige 600 aufgelisteten Kategorien wählt. Der Benutzer aktiviert die Kategorieverknüpfung, um eine Suche nach Bildern innerhalb der Kategorie zu initiieren.
  • Die Ergebnisse der stichwort- oder inhaltsbasierten Bildrecherche werden in einer nächsten Bildschirmanzeige dargestellt. Zu Diskussionszwecken wird angenommen, dass der Benutzer das Stichwort "Tiger" in den Texteingabebereich 602 der Abfrage-Bildschirmanzeige 600 eingibt.
  • 7 zeigt eine Beispielergebnis-Bildschirmanzeige 700, die in Reaktion auf die Eingabe des Stichworts "Tiger" dargestellt wird. Abhängig von der Anzeigegröße werden ein oder mehrere Bilder in der Ergebnis-Bildschirmanzeige 700 angezeigt. Hier werden sechs Bilder 702(1)702(6) gleichzeitig angezeigt. Wenn mehr Bilder vorhanden sind als gleichzeitig angezeigt werden können, werden die Navigationsschaltflächen "Weiter" und "Zurück" 704 angezeigt, um ein Durchsuchen der anderen Bilder in der Ergebnisgruppe zu ermöglichen.
  • Die Benutzerschnittstelle ermöglicht dem Benutzer ein Feedback von Relevanzinformationen beim Durchsuchen der Bilder. Für jedes Bild gibt es mehrere Feedback-Optionen. Zum Beispiel weist jedes Bild eine "Ansicht"-Verknüpfung 706 auf, die es dem Benutzer ermöglicht, das Bild zur besseren Ansicht zu vergrößern. Die Aktivierung der Verknüpfung "Ähnliche" 708 initiiert eine anschließende Abfrage von Bildern mit ähnlichem semantischen Inhalt und ähnlichen Grundmerkmalen wie das entsprechende Bild. Diese verfeinerte Suche wird in der nächsten Bildschirmanzeige dargestellt.
  • Des Weiteren weist jedes Bild sowohl positive als auch negative Relevanz-Markierungen auf, die vom Benutzer einzeln gewählt werden können. Die Relevanz-Markierungen ermöglichen es dem Benutzer, auf bildweiser Basis anzugeben, welche Bilder für die Suchabfrage relevanter sind und welche weniger relevant sind. Beispiele für solche Markierungen umfassen eine Kombination von "+" und "-' oder von "Daumen nach oben" und "Daumen nach unten" oder einen Wechsel der Hintergrundfarbe (z.B. bedeutet rot weniger relevant, blau bedeutet relevanter).
  • In 7 sind die Bilder 702(1), 702(2) und 702(5) mit einem blauen Hintergrund markiert, der eine positive Übereinstimmung angibt, dass diese Bilder tatsächlich Tiger darstellen. Die Bilder 702(4) und 702(6) haben einen roten Hintergrund, wodurch angegeben wird, dass sie mit der Abfrage "Tiger" nicht übereinstimmen. Bei genauem Hinsehen ist zu bemerken, dass diese Bilder Leoparden und keine Tiger enthalten. Das Bild 702(3) weist schließlich einen gradienten Hintergrund (weder positiv noch negativ auf) und wird im Relevanz-Feedback nicht berücksichtigt. Dieses Bild stellt einen Wolf dar, der tatsächlich keine Relevanz zu Tigern hat.
  • Nach der Bereitstellung eines relevanten Feedbacks aktiviert der Benutzer die Schaltfläche "Feedback" 701, um das Feedback zur Feedback-Analysiereinrichtung 154 weiterzuleiten. Der Lernvorgang beginnt an diesem Punkt, um den Bildrechercheprozess für künftige Abfragen zu verbessern.
  • Integrierter Relevanz-Feedback-Rahmen
  • In diesem Abschnitt wird eine beispielhafte Implementierung zum Integrieren von semantikbasiertem Relevanz-Feedback in grundmerkmalsbasiertes Relevanz-Feedback beschrieben. Semantikbasiertes Relevanz-Feedback kann relativ einfach durchgeführt werden im Vergleich zur grundmerkmalsbasierten Entsprechung. Zuerst wird eine beispielhafte Implementierung eines semantikbasierten Relevanz-Feedbacks beschrieben, gefolgt von der Art und Weise, wie dieses Feedback in das grundmerkmalsbasierte Relevanz-Feedback integriert werden kann.
  • Für ein semantikbasiertes Relevanz-Feedback wird ein Abstimmungsschema verwendet, um die Gewichtungen wij zu aktualisieren, die mit jeder Verknüpfung in dem Semantik-Netzwerk 300 verbunden sind (3). Der Gewichtungs-Aktualisierungsprozess wird im Folgenden beschrieben.
  • Schritt 1:
    Alle Gewichtungen wij auf 1 initialisieren. Das bedeutet, jedem Stichwort wird anfänglich die gleiche Wichtigkeit verliehen.
    Schritt 2:
    Benutzerabfrage und die positiven und negativen Feedback-Beispiele sammeln.
    Schritt 3:
    Für jedes Stichwort in der eingegebenen Abfrage prüfen, ob irgendeines davon sich nicht in der Stichwort-Datenbank befindet. Ist dies der Fall, das bzw. die Stichwörter der Datenbank hinzufügen, ohne irgendwelchen Verknüpfungen zu erstellen.
    Schritt 4:
    Für jedes positive Beispiel prüfen, ob irgendein Abfrage-Stichwort nicht damit verknüpft ist. Ist dies der Fall, eine Verknüpfung mit der Gewichtung "1" aus jedem fehlenden Stichwort für dieses Bild erstellen. Für alle anderen Stich wörter, die bereits mit diesem Bild verknüpft sind, die Gewichtung um "1" inkrementieren.
    Schritt 5:
    Für jedes negative Beispiel prüfen, ob irgendein Abfrage-Stichwort damit verknüpft ist. Ist dies der Fall, die neue Gewichtung auf wij = wij/4 setzen. Wenn die Gewichtung wij auf irgendeiner Verknüpfung kleiner als 1 ist, diese Verknüpfung löschen.
  • Es ist leicht erkennbar, dass das System mit zunehmender Eingabe von Abfragen sein Vokabular erweitern kann. Durch diesen Abstimmungsprozess werden Stichwörtern, die den tatsächlichen semantischen Inhalt jedes Bilds darstellen, des Weiteren größere Gewichtungen zugewiesen. Es sollte jedoch angemerkt werden, dass das oben genannte Gewichtungs-Aktualisierungsschema nur eines von vielen sinnvollen ist.
  • Wie vorher angemerkt, stellt die Gewichtung wij, die mit jeder Stichwort-Bild-Verknüpfung verbunden ist, den Grad der Relevanz dar, in der dieses Stichwort den semantischen Inhalt des verknüpften Bilds beschreibt. Zu Recherchezwecken besteht eine andere Überlegung darin, gewisse Stichwörter zu vermeiden, die mit einer großen Anzahl von Bildern in der Datenbank verbunden sind. Die Stichwörter mit vielen Verknüpfungen zu vielen Bildern sollen benachteiligt werden. Daher lässt sich ein Relevanzfaktor rk der k-ten Stichwort-Verbindung wie folgt berechnen:
    Figure 00210001
    wobei M die Gesamtanzahl von Bildern in der Datenbank ist, wk = wmn ist, wenn m = i und anderenfalls 0 ist, und di die Anzahl von Verknüpfungen ist, die das i-te Stichwort aufweist.
  • Jetzt muss das oben genannte semantikbasierte Relevanz-Feedback in das merkmalsbasierte Relevanz-Feedback integriert werden. Aus früheren Forschungen ist bekannt, (siehe Rui, Y., Huang, T.S., "A Novel Relevance Feedback Technique in Image Retrieval", ACM Multimedia, 1999), dass der ideale Abfragevektor qi* für das Merkmal i der gewichtete Mittelwert der Schulungsbeispiele für das Merkmal i ist, angegeben durch:
    Figure 00220001
    wobei Xi die NxKi Schulungsbeispiel-Matrix für das Merkmal i ist, das durch Stapeln der N Schulungsvektoren xni in eine Matrix erhalten wird, und wobei N ein Elementvektor π = [π1, ..., πN] ist, der den Grad der Relevanz für jedes der N eingegebenen Schulungsbeispiele ist. Die optimale Gewichtungsmatrix Wi* wird angegeben durch:
    Figure 00220002
    wobei Ci die gewichtete Kovarianz-Matrix von Xi ist. Das heißt:
    Figure 00220003
    Die kritischen Eingaben in das System sind xni und π. Zuerst gibt der Benutzer diese Daten in das System ein. Der erste Schritt kann jedoch vermieden werden, indem diese ersten Daten automatisch für das System bereitgestellt werden. Dies erfolgt, indem das Semantik-Netzwerk nach Stichwörtern durchsucht wird, die in der eingegebenen Abfrage erscheinen. Von diesen Stichwörtern aus folgt das System den Verknüpfungen, um die Gruppe von Schulungsbildern zu erhalten (doppelte Bilder werden entfernt). Die Vektoren xni können leicht aus der Schulungsgruppe berechnet werden. Der Grad des Relevanzvektors π wird wie folgt berechnet:
    Figure 00220004
    wobei M die Anzahl der Abfrage-Stichwörter ist, die mit dem Schulungsbild i verknüpft sind, rjk der Relevanzfaktor des j-ten Stichworts ist, das mit dem Bild i verbunden ist, und α > 1 eine geeignet Konstante ist. Der Grad der Relevanz des i-ten Bilds erhöht sich ex ponenziell zu der Anzahl von damit verknüpften Stichwörtern. In der einen Implementierung ergab eine experimentell bestimmte Einstellung von α = 2,5 die besten Ergebnisse.
  • Zum Integrieren des grundmerkmalsbasierten Feedbacks und der Ranking-Ergebnisse in das Semantik-Feedback und Ranking der höchsten Ebene wird eine vereinheitlichte metrische Abstandsfunktion Gj definiert, um die Relevanz jedes Bilds j innerhalb der Datenbank hinsichtlich des Semantik- und Grundmerkmal-Inhalts zu messen. Die Funktion G; wird unter Verwendung einer modifizierten Form der Rocchio-Formel (siehe Allgemeiner Stand der Technik) wie folgt modifiziert:
    Figure 00230001
    wobei D; ein Abstands-Score ist, das durch der Grund-Feedback berechnet wird, NR und NN jeweils die Anzahl von positiven und negativen Feedbacks sind, I1 die Anzahl der eindeutigen Stichwörter ist, die das Bild j und alle Bilder mit positivem Feedback gemeinsam haben, I2 die Anzahl der eindeutigen Stichwörter ist, die das Bild j und alle Bilder mit negativem Feedback gemeinsam haben, A1 und A2 die Gesamtanzahl von eindeutigen Stichwörtern sind, die jeweils mit allen Bildern mit positivem und negativem Feedback verbunden sind, und schließlich Sij der euklidische Abstand der Grundmerkmale zwischen den Bildern i und j ist.
  • Der erste Parameter α in der Rocchio-Formel wird durch den Logarithmus des Grads der Relevanz des j-ten Bilds ersetzt. Den zwei anderen Parametern β und γ kann der Einfachheit halber ein Wert von 1,0 zugewiesen werden. Es können jedoch auch andere Werte zugewiesen werden, um die Gewichtungsdifferenz zwischen den letzten zwei Ausdrücken hervorzuheben.
  • Unter Verwendung des oben beschriebenen Verfahrens wird das kombinierte Relevanz-Feedback wie folgt bereitgestellt.
  • Schritt 1:
    Die Benutzer-Abfragestichwörter sammeln.
    Schritt 2:
    Das obige Verfahren zum Berechnen von xni und π verwenden und diese in die Komponente für Grundmerkmals-Relevanz-Feedback eingeben, um die ersten Abfrageergebnisse zu erhalten.
    Schritt 3:
    Positive und negative Feedbacks vom Benutzer sammeln.
    Schritt 4:
    Gewichtung in dem Semantik-Netzwerk gemäß dem 5-Schritte-Prozess aktualisieren, der vorher in diesem Abschnitt beschrieben worden ist.
    Schritt 5:
    Gewichtungen der grundmerkmalsbasierten Komponente aktualisieren.
    Schritt 6:
    xni und π berechnen und in die Komponente für Grund-Feedback eingeben. Die Werte von xni können vorher in einem Vorverarbeitungsschritt berechnet werden.
    Schritt 7:
    Ranking-Score für jedes Bild unter Verwendung der Gleichung 7 berechnen und Ergebnisse sortieren.
    Schritt 8:
    Neue Ergebnisse anzeigen und zu Schritt 3 zurückkehren.
  • Das Bildrecherchesystem weist insofern Verteile gegenüber Systemen des bisherigen Stands der Technik auf, als es aus dem Feedback des Benutzers sowohl in semantischer als auch merkmalsbasierter Weise lernt. Wenn keine Semantikinformationen verfügbar sind, kehrt der Prozess außerdem zum herkömmlichen merkmalsbasierten Relevanz-Feedback wie demjenigen zurück, das von Rui und Huang in dem oben zitierten "A Novel Relevance Feedback Technique in Image Retrieval" beschrieben worden ist.
  • Registrierung des neuen Bilds
  • Das Hinzufügen neuer Bilder in die Datenbank ist unter vielen Umständen ein sehr allgemeiner Vorgang. Bei Recherchesystemen, die nur auf Grund-Bildmerkmalen basieren, umfasst das Hinzufügen neuer Bilder einfach das Extrahieren verschiedener Merkmalsvektoren für die Gruppe neuer Bilder. Da das Recherchesystem jedoch Stichwörter zum Darstellen des semantischen Inhalts der Bilder verwendet, muss der Semantikinhalt der neuen Bilder entweder manuell oder automatisch gekennzeichnet werden. In diesem Abschnitt wird eine automatische Kennzeichnungstechnik beschrieben.
  • Die automatische Kenzeichnungstechnik umfasst das Schätzen des semantischen Inhalts der neuen Bilder unter Verwendung von Grundmerkmalen. Folgendes ist ein beispielhafter Prozess:
  • Schritt 1:
    Für jede Kategorie in der Datenbank die repräsentativen Merkmalsvektoren berechnen, indem der Schwerpunkt aller Bilder in dieser Kategorie bestimmt wird.
    Schritt 2:
    Für jede Kategorie in der Datenbank die Gruppe der repräsentativen Stichwörter suchen, indem die Stichwort-Verbindung jedes Bilds in dieser Kategorie geprüft wird. Die N Spitzen-Stichwörter mit der größten Gewichtung, deren kombinierte Gewichtung einen vorher bestimmten Schwellenwert τ nicht überschreitet, werden ausgewählt und der Liste der repräsentativen Stichwörter hinzugefügt. Der Wert des Schwellenwerts τ wird auf 40% der Gesamtgewichtung gesetzt.
    Schritt 3:
    Für jedes neue Bild seinen Grundmerkmalsvektor mit den repräsentativen Merkmalsvektoren jeder Kategorie vergleichen. Die Bilder werden mit der Gruppe von repräsentativen Stichwörtern aus der am meisten übereinstimmenden Kategorie mit einer ersten Gewichtung von 1,0 auf jedem Stichwort gekennzeichnet.
  • Weil die Grundmerkmale nicht ausreichend sind, um die Semantik der Bilder darzustellen, ist es unvermeidlich, dass einige oder sogar alle der automatisch gekennzeichneten Stichwörter ungenau sind. Durch Benutzerabfragen und -Feedbacks bilden sich jedoch akkurate Stichwörter heraus, wogegen semantisch ungenaue Stichwörter langsam beseitigt werden.
  • Ein weiteres Problem in Bezug auf die automatische Kennzeichnung von neuen Bildern ist die automatische Klassifizierung dieser Bilder in vordefinierte Kategorien. Diese Problem wird durch den folgenden Prozess behandelt:
  • Schritt 1:
    Automatisch gekennzeichnete neue Bilder in eine spezielle "unbekannte" Kategorie setzen.
    Schritt 2:
    Jedes Bild in dieser Kategorie in regelmäßigen Intervallen prüfen, um zu sehen, ob irgendeine Stichwort-Verbindung eine größere Gewichtung als einen Schwellenwert ξ empfangen hat. Ist dies der Fall, die N Spitzen-Stichwörter extrahieren, deren kombinierte Gewichtung den Schwellenwert τ nicht überschreitet.
    Schritt 3:
    Für jedes Bild mit extrahierten Stichwörtern die extrahierten Stichwörter mit der Liste der repäsentativen Stichwörter aus jeder Kategorie vergleichen. Jedem Bild die am meisten übereinstimmende Kategorie zuweisen. Wenn keine der verfügbaren Kategorien zu einer sinnvollen Übereinstimmung führt, dieses Bild in der "unbekannten" Kategorie belassen.
  • Die Stichwortlisten-Vergleichsfunktion, die in Schritt 3 des obigen Algorithmus verwendet wird, kann mehrere Formen annehmen. Eine ideale Funktion würde die semantische Beziehung von Stichwörtern in einer Liste zu denjenigen der anderen Liste berücksichtigen. Aus Gründen der Einfachheit prüft eine Schnellfunktion jedoch nur, ob Stichwörter aus der Liste der extrahierten Stichwörter in der Liste repräsentativer Stichwörter vorhanden sind.

Claims (31)

  1. Verfahren, das umfasst: Auslösen einer Suche nach Bildern auf Basis wenigstens eines Abfrage-Stichwortes in einer Abfrage; während der Suche Identifizieren erster Bilder (304) mit damit verbundenen Stichwörtern (302), die dem wenigstens einen Abfrage-Stichwort entsprechen, und zweiter Bilder (304), die Grundmerkmale enthalten, die denen der ersten Bilder (304) gleichen; integriertes Durchführen eines Relevanz-Feedback auf Basis von Semantik und eines Relevanz-Feedback auf Basis von Grundmerkmalen; Aktualisieren von Gewichtungen, die den Grundmerkmalen zugewiesen sind, gemäß dem Benutzer-Feedback, gekennzeichnet durch Aktualisieren von Gewichtungen, die Verknüpfungen zwischen den ersten Bildern (304) und den damit verbundenen Abfrage-Stichwörtern (302) zugewiesen sind, gemäß dem Benutzer-Feedback; und Berechnen eines Ranking-Score unter Verwendung einer vereinheitlichten metrischen Abstandsfunktion (unified distance metric function), um die Relevanz jedes beliebigen Bildes innerhalb einer Bild-Datenbank hinsichtlich des Inhalts sowohl bezüglich der Semantik als auch der Grundmerkmale zu messen.
  2. Verfahren nach Anspruch 1, das des Weiteren Zeigen der ersten und der zweiten Bilder (304) umfasst.
  3. Verfahren nach Anspruch 1, das des Weiteren umfasst: Zeigen (416, 422) der ersten und der zweiten Bilder (304) für einen Benutzer; und Überwachen von Feedback (503) von dem Benutzer dahingehend, welche der ersten und der zweiten Bilder (304) für die Abfrage relevant sind.
  4. Verfahren nach Anspruch 1, das des Weiteren umfasst: Zeigen (416, 422) der ersten und der zweiten Bilder (304) für einen Benutzer; Empfangen von Feedback von dem Benutzer dahingehend, ob die ersten und die zweiten Bilder (304) für die Abfrage relevant sind; und auf Basis des Feedbacks von dem Benutzer Erkennen, welche Grundmerkmale zu relevanten Bildern führen und welche Stichwörter mit den relevanten Bildern identifiziert werden.
  5. Verfahren nach Anspruch 1, das des Weiteren umfasst: Zeigen (416, 422) der ersten und zweiten Bilder (304) für einen Benutzer; Empfangen von Feedback von dem Benutzer dahingehend, welche der ersten und zweiten Bilder (304) für die Abfrage relevant sind; und Verfeinern der Suche, um zusätzliche Bilder zu identifizieren, die Grundmerkmale enthalten, die ähnlich denen der Bilder sind, die durch den Benutzer als für die Abfrage relevant angezeigt werden.
  6. Verfahren nach Anspruch 1, das des Weiteren umfasst: Zeigen (416, 422) der ersten und zweiten Bilder für einen Benutzer; Empfangen von Feedback von dem Benutzer dahingehend, welche der ersten und zweiten Bilder (304) für die Abfrage relevant sind; und wenn der Benutzer wenigstens ein Bild als für die Abfrage relevant auswählt, Zuweisen (506) einer ersten Gewichtung zu einer Verbindung zwischen dem Abfrage-Stichwort und dem wenigstens einen Bild, das von dem Benutzer als relevant betrachtet wird, wobei die erste Gewichtung größer ist als die Gewichtungen, die einer zweiten Stichwort-Bild-Verbindung zugewiesen werden, die ausgebildet wird, indem das Stichwort in der Abfrage mit einem Beispielbild verbunden wird, das der Benutzer zur Verfeinerung der Suche identifiziert hat.
  7. Verfahren nach Anspruch 6, das des Weiteren Gruppieren der Grundmerkmale der Bilder umfasst, die von dem Benutzer als relevant betrachtet werden.
  8. Verfahren nach Anspruch 1, das des Weiteren umfasst: Zeigen (416, 422) der ersten und zweiten Bilder für einen Benutzer; wenn der Benutzer wenigstens ein Bild als für die Abfrage relevant auswählt, Verbinden des Stichworts in der Abfrage mit dem ausgewählten Bild, um eine erste Stichwort-Bild-Verbindung auszubilden, und Zuweisen einer ersten Gewichtung zu der ersten Stichwort-Bild-Verbindung; Empfangen von Feedback von dem Benutzer, das ein Beispielbild als weniger relevant oder irrelevant für die Abfrage zur Verfeinerung der Suche identifiziert; Verbinden des Stichworts in der Abfrage mit dem Beispielbild, um eine zweite Stichwort-Bild-Verbindung auszubilden, und Zuweisen einer zweiten Gewichtung zu der zweiten Stichwort-Bild-Verbindung, wobei die erste Gewichtung vergleichsweise größer ist als das zweite Gewichtung; und wobei das Verfahren des Weiteren einen Schritt des Zuweisens des zweiten Gewichtes zu einer Verbindung zwischen dem Abfrage-Stichwort und dem Beispielbild umfasst.
  9. Verfahren nach Anspruch 8, das des Weiteren Identifizieren zusätzlicher Bilder mit Grundmerkmalen umfasst, die denen des Beispielbildes gleichen.
  10. Verfahren nach Anspruch 1, das umfasst: Zulassen des Eingangs sowohl stichwortbasierter Abfragen als auch inhaltsbasier ter Abfragen; Finden von Bildern (304) unter Verwendung sowohl von Bildrecherche auf Basis von Semantik als auch von Bildrecherche auf Basis von Grundmerkmalen; und Zeigen (412, 422) der Bilder für einen Benutzer, so dass der Benutzer anzeigen kann, ob die Bilder relevant sind.
  11. Verfahren nach Anspruch 1, wobei die vereinheitliche metrische Abstandsfunktion durch Gj gemäß
    Figure 00290001
    definiert ist, wobei Dj ein Abstands-Score ist, das durch Grund-Feedback berechnet wird; NR und NN die Anzahl positiver bzw. negativer Feedbacks sind; I1 die Anzahl verschiedener Stichwörter ist, die Bild j und alle Bilder mit positivem Feedback gemeinsam haben; I2 die Anzahl verschiedener Stichwörter ist, die Bild j und alle Bilder mit negativem Feedback gemeinsam haben; π ein Grad eines Relevanz-Vektors ist; A1 und A2 die Gesamtzahl verschiedener Stichwörter sind, die mit allen Bildern mit positivem bzw. negativem Feedback verbunden sind; πi ein Grad des Relevanz-Vektors ist und Sjk der euklidische Abstand der Grundmerkmale zwischen den Bildern j und k ist.
  12. Verfahren nach Anspruch 1, das des Weiteren umfasst: Verbinden der Stichwörter (302) mit den Bildern (304), um die Stichwort-Bild-Verknüpfungen auszubilden; Zuweisen der Gewichtungen zu den Stichwort-Bild-Verknüpfungen; Zeigen eines Ergebnis-Satzes von Bildern, der anhand einer Bild-Recherchesuche auf Basis einer Abfrage gewonnen wird; Empfangen des Feedback von einem Benutzer dahingehend, ob die Bilder in dem Ergebnis-Satz für die Abfrage relevant sind; und Integrieren von Feedback auf Basis von Grundmerkmalen und von Ranking-Ergebnissen in semantisches Feedback höherer Ebene und Ranking; wobei der Schritt des Aktualisierens Multiplizieren der Gewichte gemäß dem Benutzer-Feedback umfasst.
  13. Verfahren nach Anspruch 12, wobei das Integrieren Definieren einer vereinheitlichten metrischen Abstandsfunktion zum Messen von Relevanz jedes beliebigen Bildes innerhalb einer Bild-Datenbank hinsichtlich des Inhaltes sowohl bezüglich Semantik als auch der Grundmerkmale umfasst.
  14. Verfahren nach Anspruch 12, wobei das Integrieren Definieren einer vereinheitlichten metrischen Abstandsfunktion Gj zum Messen von Relevanz jedes beliebigen Bildes innerhalb einer Bild-Datenbank hinsichtlich des Inhaltes bezüglich sowohl der Semantik als auch der Grundmerkmale umfasst, wobei Gj gemäß
    Figure 00310001
    definiert ist und Dj ein Abstands-Score ist, das durch Grund-Feedback berechnet wird; NR und NN die Anzahl positiver bzw. negativer Feedbacks sind; I1 die Anzahl einzelner Stichwörter ist, die Bild j und alle Bilder mit positivem Feedback gemeinsam haben; I2 die Anzahl einzelner Stichwörter ist, die Bild j und alle Bilder mit negativem Feedback gemeinsam haben; π ein Grad eines Relevanz-Vektors ist; A1 und A2 die Gesamtzahl einzelner Stichwörter sind, die mit allen Bildern mit positivem bzw. negativem Feedback verbunden sind; πj ein Grad eines Relevanz-Vektors ist und Sjk der euklidische Abstand der Grundmerkmale zwischen den Bildern j und k ist.
  15. Verfahren nach einem der Ansprüche 12 bis 14, wobei: der Schritt des Empfangens von Feedback Überwachen von Feedback von einem Benutzer dahingehend umfasst, ob die Bilder in dem Ergebnis-Satz für die Abfrage relevant sind; und der Schritt des Modifizierens umfasst: wenn der Benutzer wenigstens ein Bild als für die Abfrage relevant auswählt, Verbinden des Stichworts in der Abfrage mit dem ausgewählten Bild, um eine erste Stichwort-Bild-Verbindung auszubilden, und Zuweisen einer ersten Gewichtung zu der ersten Stichwort-Bild-Verbindung; und wenn der Benutzer ein Beispiel-Bild zur Verfeinerung der Suche identifiziert, Verbinden des Stichworts in der Abfrage mit dem Beispielbild, um eine zweite Stichwort-Bild-Verbindung auszubilden, und Zuweisen einer zweiten Gewichtung zu der Stichwort-Bild-Verbindung; wobei die erste Gewichtung vergleichsweise größer ist als die zweite Gewichtung.
  16. Verfahren nach Anspruch 15, das des Weiteren Durchführen sowohl von inhaltsbasierter Bildrecherche also auch semantisch basierter Bildrecherche umfasst.
  17. Verfahren nach Anspruch 15 oder 16, das des Weiteren Zeigen des resultierenden Satzes von Bildern in einer Benutzerschnittstelle umfasst, wobei die Benutzerschnittstelle das Benutzer-Feedback ermöglicht, indem sie es dem Benutzer erlaubt, anzuzeigen, welche Bilder relevanter sind und welche Bilder weniger relevant sind.
  18. Computerlesbares Medium, das durch Computer ausführbare Befehle aufweist, die, wenn sie ausgeführt werden, einen Computer anweisen: Bilder (304) unter Verwendung sowohl von Bildrecherche auf Basis von Semantik als auch Bildrecherche auf Basis von Grundmerkmalen zu finden; die Bilder (304) einem Benutzer zu zeigen, so dass der Benutzer anzeigen kann, ob die Bilder relevant sind; und Relevanz-Feedback auf Basis von Semantik und Relevanz-Feedback auf Basis von Grundmerkmalen integriert durchzuführen; Gewichtungen, die den Grundmerkmalen zugewiesen sind, gemäß dem Benutzer-Feedback zu aktualisieren; dadurch gekennzeichnet, dass die Befehle, wenn sie ausgeführt werden, den Computer anweisen, Gewichtungen, die Verknüpfungen zwischen den Bildern (304) und damit verbundenen Abfrage-Stichwörtern (302) zugewiesen sind, gemäß dem Benutzer-Feedback zu aktualisieren; und ein Ranking weiterer Bilder unter Verwendung einer vereinheitlichten metrischen Abstandsfunktion durchzuführen, um die Relevanz jedes beliebigen Bildes innerhalb einer Bild-Datenbank hinsichtlich des Inhaltes sowohl bezüglich der Semantik als auch der Grundmerkmale zu messen.
  19. Computerlesbares Medium nach Anspruch 18, das des Weiteren durch Computer ausführbare Befehle aufweist, die, wenn sie auf einem Prozessor ausgeführt werden, das Verfahren nach einem der Ansprüche 1 bis 11 durchführen.
  20. Computerlesbares Medium nach Anspruch 18, das des Weiteren durch Computer ausführbare Befehle aufweist, die, wenn sie auf einem Prozessor ausgeführt werden, das Verfahren nach einem der Ansprüche 12 bis 17 durchführen.
  21. Bildrecherchesystem, das umfasst: einen Abfrage-Abwickler (150), der so eingerichtet ist, dass er sowohl stichwortbasierte Abfragen mit einem oder mehreren Such-Stichwörtern als auch inhaltsbasierte Abfragen mit einem oder mehreren Grundmerkmalen eines Bildes abwickelt; eine Merkmal-und-Semantik-Abgleicheinrichtung (152), die so eingerichtet ist, dass sie 1. erste Bilder mit Stichwörtern, die den Such-Stichwörtern aus einer stichwortbasierten Abfrage entsprechen, und 2. zweite Bilder identifiziert, die Grundmerkmale aufweisen, die den Grundmerkmalen einer inhaltsbasierten Abfrage gleichen; und eine Feedback-Analysiereinrichtung (154), die so eingerichtet ist, dass sie das Bildrecherchesystem trainiert, indem sie ein Relevanz-Feedback auf Basis von Semantik und ein Relevanz-Feedback auf Basis von Grundmerkmalen integriert durchführt, wobei das Bildrecherchesystem des Weiteren so eingerichtet ist, dass es Gewichtungen, die den Grundmerkmalen zugewiesen sind, gemäß dem Benutzer-Feedback aktualisiert; dadurch gekennzeichnet, dass das Bildrecherchesystem so eingerichtet ist, dass es Gewichte, die Verknüpfungen zwischen den ersten Bildern (304) und den dazugehörigen Abfrage-Stichwörtern (302) zugewiesen sind, gemäß dem Benutzer-Feedback aktualisiert; wobei die Merkmal-und-Semantik-Abgleicheinrichtung (152) des Weiteren so eingerichtet ist, dass sie Ranking weiterer Bilder unter Verwendung einer vereinheitlichten metrischen Abstandsfunktion durchführt, um die Relevanz jedes beliebigen Bildes innerhalb einer Bild-Datenbank hinsichtlich des Inhaltes sowohl bezüglich der Semantik als auch der Grundmerkmale zu messen.
  22. Bildrecherchesystem nach Anspruch 21, wobei der Abfrage-Abwickler (150) einen Parser (202) für natürliche Sprache umfasst.
  23. Bildrecherchesystem nach Anspruch 21, wobei der Abfrage-Abwickler (150) umfasst: einen Parser (202), der so eingerichtet ist, dass er Parsing textbasierter Abfragen durchführt; und eine Konzept-Hierarchie (204), die so eingerichtet ist, dass sie verschiedene Kategorien von Bildern definiert.
  24. Bildrecherchesystem nach einem der Ansprüche 21 bis 23, das des Weiteren eine Benutzerschnittstelle (200) umfasst, die so eingerichtet ist, dass sie durch die Merkmal-und-Semantik-Abgleicheinrichtung (152) identifizierte erste und zweite Bilder zeigt.
  25. Bildrecherchesystem nach einem der Ansprüche 21 bis 23, das des Weiteren umfasst: eine Benutzerschnittstelle (200), die so eingerichtet ist, dass sie einem Benutzer die durch die Merkmal-und-Semantik-Abgleicheinrichtung identifizierten ersten und zweiten Bilder zeigt, wobei es die Benutzerschnittstelle dem Benutzer gestattet, anzuzeigen, ob die ersten und zweiten Bilder für die Abfrage relevant sind.
  26. Bildrecherchesystem nach einem der Ansprüche 21 bis 23, das des Weiteren umfasst: eine Benutzerschnittstelle (200), die so eingerichtet ist, dass sie einem Benutzer die durch die Merkmal-und-Semantik-Abgleicheinrichtung identifizierten ersten und zweiten Bilder zeigt, wobei es die Benutzerschnittstelle dem Benutzer gestattet, ein Beispielbild zu identifizieren; und wobei die Merkmal-und-Semantik-Abgleicheinrichtung (152) so konfiguriert ist, dass sie zusätzliche Bilder identifiziert, die Grundmerkmale enthalten, die denen des Beispielbildes gleichen.
  27. Bildrecherchesystem nach einem der Ansprüche 21 bis 23, das des Weiteren umfasst: eine Benutzerschnittstelle (200), die so eingerichtet ist, dass sie einem Benutzer die durch die Merkmal-und-Semantik-Abgleicheinrichtung identifizierten ersten und zweiten Bilder zeigt, wobei es die Benutzerschnittstelle dem Benutzer gestattet, zo identifizieren, welche Bilder für eine spezielle Suchabfrage relevant sind; und wobei die Feedback-Analysiereinrichtung (154) des Weiteren so eingerichtet ist, dass sie einer Verbindung zwischen den Such-Stichwörtern und den durch den Benutzer als relevant identifizierten Bildern eine erste Gewichtung zuweist, wobei, wenn der Benutzer ein Beispielbild zur Verfeinerung der Suche identifiziert, die Such-Stichwörter in der Abfrage mit dem Beispielbild verbunden werden und so zweite Stichwort-Bild-Verbindungen ausgebildet werden, und den zweiten Stichwort-Bild-Verbindungen eine zweite Gewichtung zugewiesen wird, wobei die erste Gewichtung vergleichsweise größer ist als die zweite Gewichtung.
  28. Bildrecherchesystem nach Anspruch 27, wobei die Feedback-Analysiereinrichtung (154) so eingerichtet ist, dass sie die Grundmerkmale der ersten und der zweiten Bilder, die durch den Benutzer als relevant identifiziert werden, gruppiert.
  29. Bildrecherchesystem nach Anspruch 27 oder 28, wobei es die Benutzerschnittstelle dem Benutzer gestattet, das Beispielbild als weniger relevant oder irrelevant für die Abfrage zu identifizieren; und die Feedback-Analysiereinrichtung (154) des Weiteren so eingerichtet ist, dass sie die zweite Gewichtung einer Verbindung zwischen den Such-Stichwörtern und dem Beispielbild zuweist.
  30. Bildrecherchesystem nach einem der Anspruche 21 bis 29, wobei die Merkmal-und-Semantik-Abgleicheinrichtung (152) so eingerichtet ist, dass sie zusätzliche Bilder mit Grundmerkmalen identifiziert, die denen des Beispielbildes gleichen.
  31. Bildrecherchesystem nach einem der Anspruche 21 bis 30, das des Weiteren eine Datenbankstruktur umfasst, die auf einem oder mehreren computerlesbaren Medien gespeichert ist, wobei sie umfasst: mehrere Bilddateien (304); mehrere Stichwörter (302); und ein semantisches Netzwerk (300), das so eingerichtet ist, dass es die Stichwörter mit den Bilddateien verbindet, wobei das semantische Netzwerk des Weiteren so eingerichtet ist, dass es einzelne Stichwort-Bild-Verknüpfungen definiert, die ein bestimmtes Stichwort mit einer bestimmten Bilddatei verbinden, wobei jede Stich wort-Bild-Verknüpfung eine Gewichtung hat, das anzeigt, wie relevant das bestimmte Stichwort für die bestimmte Bilddatei ist.
DE60129652T 2000-10-30 2001-10-18 Bildwiederauffindungssystem und Methode mit semantischer und eigenschaftenbasierter Relevanzrückmeldung Expired - Lifetime DE60129652T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US702292 2000-10-30
US09/702,292 US7099860B1 (en) 2000-10-30 2000-10-30 Image retrieval systems and methods with semantic and feature based relevance feedback

Publications (2)

Publication Number Publication Date
DE60129652D1 DE60129652D1 (de) 2007-09-13
DE60129652T2 true DE60129652T2 (de) 2007-11-22

Family

ID=24820616

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60129652T Expired - Lifetime DE60129652T2 (de) 2000-10-30 2001-10-18 Bildwiederauffindungssystem und Methode mit semantischer und eigenschaftenbasierter Relevanzrückmeldung

Country Status (5)

Country Link
US (3) US7099860B1 (de)
EP (1) EP1202187B1 (de)
JP (2) JP4108961B2 (de)
AT (1) ATE368897T1 (de)
DE (1) DE60129652T2 (de)

Families Citing this family (276)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0857633A (ja) * 1994-08-23 1996-03-05 Atsushi Yagihashi 半田ゴテのコテ先
JPH0957436A (ja) * 1995-08-21 1997-03-04 Saitama Nippon Denki Kk 自動機用半田ごてユニット
SE520533C2 (sv) 2001-03-13 2003-07-22 Picsearch Ab Metod, datorprogram och system för indexering av digitaliserade enheter
KR100451649B1 (ko) * 2001-03-26 2004-10-08 엘지전자 주식회사 이미지 검색방법과 장치
US20030016250A1 (en) * 2001-04-02 2003-01-23 Chang Edward Y. Computer user interface for perception-based information retrieval
US7769895B1 (en) * 2001-08-17 2010-08-03 Corda Technologies, Inc. System and method for ensuring that a web browser displays the highest ranked image format possible for an image
US7257568B2 (en) * 2001-10-16 2007-08-14 Sizatola, Llc Process and system for matching products and markets
US20040075743A1 (en) * 2002-05-22 2004-04-22 Sony Computer Entertainment America Inc. System and method for digital image selection
US20040064306A1 (en) * 2002-09-30 2004-04-01 Wolf Peter P. Voice activated music playback system
GB2395805A (en) 2002-11-27 2004-06-02 Sony Uk Ltd Information retrieval
JP4516957B2 (ja) 2003-01-25 2010-08-04 パーデュー リサーチ ファンデーション 3次元オブジェクトについて検索を行なうための方法、システムおよびデータ構造
JP2004326491A (ja) * 2003-04-25 2004-11-18 Canon Inc 画像処理方法
US7274834B2 (en) * 2003-05-21 2007-09-25 Konica Minolta Holdings, Inc. Searching device, searching method and program
CN100568231C (zh) * 2003-06-23 2009-12-09 爱尔兰都柏林国立大学-都柏林大学 会话式推荐系统及其检索方法
US20050044076A1 (en) * 2003-08-18 2005-02-24 Yuh-Cherng Wu Information retrieval from multiple sources
KR100452085B1 (ko) * 2004-01-14 2004-10-12 엔에이치엔(주) 카테고리 별 키워드의 입력 순위를 제공하기 위한 검색서비스 시스템 및 그 방법
US7872669B2 (en) * 2004-01-22 2011-01-18 Massachusetts Institute Of Technology Photo-based mobile deixis system and related techniques
EP1562126A1 (de) * 2004-02-03 2005-08-10 Sap Ag Datenbankverwaltungssystem und Verfahren zur Verwaltung einer Datenbank
US7460737B2 (en) * 2004-02-12 2008-12-02 Hoshiko Llc Method and apparatus for photograph finding
US8775436B1 (en) * 2004-03-19 2014-07-08 Google Inc. Image selection for news search
US8041713B2 (en) * 2004-03-31 2011-10-18 Google Inc. Systems and methods for analyzing boilerplate
US7664734B2 (en) * 2004-03-31 2010-02-16 Google Inc. Systems and methods for generating multiple implicit search queries
US8631001B2 (en) * 2004-03-31 2014-01-14 Google Inc. Systems and methods for weighting a search query result
US7693825B2 (en) * 2004-03-31 2010-04-06 Google Inc. Systems and methods for ranking implicit search results
US7272601B1 (en) * 2004-03-31 2007-09-18 Google Inc. Systems and methods for associating a keyword with a user interface area
US20080040315A1 (en) * 2004-03-31 2008-02-14 Auerbach David B Systems and methods for generating a user interface
US7707142B1 (en) 2004-03-31 2010-04-27 Google Inc. Methods and systems for performing an offline search
US9009153B2 (en) 2004-03-31 2015-04-14 Google Inc. Systems and methods for identifying a named entity
US11409812B1 (en) 2004-05-10 2022-08-09 Google Llc Method and system for mining image searches to associate images with concepts
US7697791B1 (en) 2004-05-10 2010-04-13 Google Inc. Method and system for providing targeted documents based on concepts automatically identified therein
US7996753B1 (en) 2004-05-10 2011-08-09 Google Inc. Method and system for automatically creating an image advertisement
US8065611B1 (en) 2004-06-30 2011-11-22 Google Inc. Method and system for mining image searches to associate images with concepts
JP4093241B2 (ja) * 2004-05-17 2008-06-04 セイコーエプソン株式会社 書類作成支援装置、書類作成支援プログラムおよび記憶媒体、並びに書類作成支援方法
JP2005354134A (ja) * 2004-06-08 2005-12-22 Sony Corp 画像管理方法および装置、記録媒体、並びにプログラム
JP4478513B2 (ja) * 2004-06-10 2010-06-09 キヤノン株式会社 デジタルカメラ、デジタルカメラの制御方法、プログラムおよびそれを格納した記録媒体
US20070244870A1 (en) * 2004-06-23 2007-10-18 Franc Telecom Automatic Search for Similarities Between Images, Including a Human Intervention
US7788274B1 (en) 2004-06-30 2010-08-31 Google Inc. Systems and methods for category-based search
US8131754B1 (en) 2004-06-30 2012-03-06 Google Inc. Systems and methods for determining an article association measure
US7533074B2 (en) 2004-07-23 2009-05-12 Sap Ag Modifiable knowledge base in a mobile device
US7383260B2 (en) * 2004-08-03 2008-06-03 International Business Machines Corporation Method and apparatus for ontology-based classification of media content
US20080119349A1 (en) * 2004-12-22 2008-05-22 Ngk Spark Plug Co., Ltd. Sialon Insert and Cutting Tool Equipped Therewith
US7877382B1 (en) * 2004-12-31 2011-01-25 Google, Inc. System and methods for detecting images distracting to a user
GB0502844D0 (en) 2005-02-11 2005-03-16 Univ Edinburgh Storing digital content for access using a captured image
JP4367355B2 (ja) * 2005-02-24 2009-11-18 セイコーエプソン株式会社 写真画像検索装置、写真画像検索方法、記録媒体、およびプログラム
US8788593B1 (en) 2005-02-25 2014-07-22 Google Inc. Systems and methods for downloading attachments
US8554939B1 (en) 2005-02-25 2013-10-08 Google Inc. Systems and methods for downloading and viewing images
US7689617B2 (en) * 2005-02-25 2010-03-30 Prashant Parikh Dynamic learning for navigation systems
US9092458B1 (en) * 2005-03-08 2015-07-28 Irobot Corporation System and method for managing search results including graphics
US8694494B2 (en) * 2005-03-25 2014-04-08 Vistaprint Schweiz Gmbh Selecting images using associated keywords
US20060251975A1 (en) * 2005-05-03 2006-11-09 General Electric Company System and method for retrieving radiographic images
US7783135B2 (en) * 2005-05-09 2010-08-24 Like.Com System and method for providing objectified image renderings using recognition information from images
WO2006126141A1 (en) * 2005-05-27 2006-11-30 Koninklijke Philips Electronics N.V. Images identification method and apparatus
US7702681B2 (en) * 2005-06-29 2010-04-20 Microsoft Corporation Query-by-image search and retrieval system
US20090157869A1 (en) * 2005-07-27 2009-06-18 Cleary James D Tracking Content in Communication Networks
US7831918B2 (en) * 2005-09-12 2010-11-09 Microsoft Corporation Content based user interface design
US8275399B2 (en) 2005-09-21 2012-09-25 Buckyball Mobile Inc. Dynamic context-data tag cloud
JP5009577B2 (ja) * 2005-09-30 2012-08-22 富士フイルム株式会社 画像検索装置および方法並びにプログラム
US8775520B1 (en) 2005-09-30 2014-07-08 Google Inc. Systems and methods for viewing non-HTML email attachments
US8185591B1 (en) 2005-09-30 2012-05-22 Google Inc. Systems and methods for viewing email attachments as thumbnails
JP4413844B2 (ja) * 2005-10-17 2010-02-10 富士通株式会社 画像表示制御装置
GB2432927A (en) * 2005-10-25 2007-06-06 Thomas Donnelly Image search engine
US8046673B2 (en) * 2005-11-07 2011-10-25 Business Objects Software Ltd. Apparatus and method for facilitating trusted business intelligence through data context
US8099383B2 (en) * 2005-11-07 2012-01-17 Business Objects Software Limited Apparatus and method for defining report parts
US7584411B1 (en) * 2005-12-22 2009-09-01 Adobe Systems, Inc. Methods and apparatus to identify graphical elements
US7725451B2 (en) * 2006-01-23 2010-05-25 Microsoft Corporation Generating clusters of images for search results
US7644373B2 (en) 2006-01-23 2010-01-05 Microsoft Corporation User interface for viewing clusters of images
US7836050B2 (en) * 2006-01-25 2010-11-16 Microsoft Corporation Ranking content based on relevance and quality
US7814040B1 (en) 2006-01-31 2010-10-12 The Research Foundation Of State University Of New York System and method for image annotation and multi-modal image retrieval using probabilistic semantic models
US7664739B2 (en) * 2006-02-14 2010-02-16 Microsoft Corporation Object search ui and dragging object results
US7970763B2 (en) * 2006-02-21 2011-06-28 Microsoft Corporation Searching and indexing of photos based on ink annotations
US9767184B2 (en) * 2006-03-14 2017-09-19 Robert D. Fish Methods and apparatus for facilitating context searching
JP2007257308A (ja) * 2006-03-23 2007-10-04 Canon Inc 文書管理装置、文書管理システム、及びその制御方法、プログラム、記憶媒体
US7624130B2 (en) * 2006-03-30 2009-11-24 Microsoft Corporation System and method for exploring a semantic file network
US7634471B2 (en) * 2006-03-30 2009-12-15 Microsoft Corporation Adaptive grouping in a file network
JP2007281596A (ja) * 2006-04-03 2007-10-25 Canon Inc 情報処理装置、情報処理システム、及びその制御方法、プログラム、記憶媒体
US7503007B2 (en) * 2006-05-16 2009-03-10 International Business Machines Corporation Context enhanced messaging and collaboration system
US8166418B2 (en) * 2006-05-26 2012-04-24 Zi Corporation Of Canada, Inc. Device and method of conveying meaning
KR100785928B1 (ko) * 2006-07-04 2007-12-17 삼성전자주식회사 멀티모달 정보를 이용한 사진 검색 방법 및 사진 검색시스템
JP2009545076A (ja) * 2006-07-24 2009-12-17 チャチャ サーチ,インク. 情報検索システムにおけるポッドキャスティング及びビデオトレーニングの為の方法、システム及びコンピュータ読込可能ストレージ
US8271486B2 (en) * 2006-07-28 2012-09-18 Yahoo! Inc. System and method for searching a bookmark and tag database for relevant bookmarks
US7693906B1 (en) * 2006-08-22 2010-04-06 Qurio Holdings, Inc. Methods, systems, and products for tagging files
US20080059447A1 (en) * 2006-08-24 2008-03-06 Spock Networks, Inc. System, method and computer program product for ranking profiles
US7899837B2 (en) 2006-09-29 2011-03-01 Business Objects Software Ltd. Apparatus and method for generating queries and reports
US8126887B2 (en) 2006-09-29 2012-02-28 Business Objects Software Ltd. Apparatus and method for searching reports
US8204895B2 (en) * 2006-09-29 2012-06-19 Business Objects Software Ltd. Apparatus and method for receiving a report
US7707208B2 (en) * 2006-10-10 2010-04-27 Microsoft Corporation Identifying sight for a location
US7657504B2 (en) 2006-10-10 2010-02-02 Microsoft Corporation User interface for displaying images of sights
US7885482B2 (en) 2006-10-26 2011-02-08 Microsoft Corporation Coverage-based image relevance ranking
US7840076B2 (en) * 2006-11-22 2010-11-23 Intel Corporation Methods and apparatus for retrieving images from a large collection of images
US20080118160A1 (en) * 2006-11-22 2008-05-22 Nokia Corporation System and method for browsing an image database
JP5390393B2 (ja) * 2006-11-29 2014-01-15 コーニンクレッカ フィリップス エヌ ヴェ 標本に基づくフィルタ
WO2008069791A1 (en) * 2006-12-04 2008-06-12 General Instrument Corporation Method and apparatus for improving image retrieval and search using latent semantic indexing
GB2444535A (en) 2006-12-06 2008-06-11 Sony Uk Ltd Generating textual metadata for an information item in a database from metadata associated with similar information items
US7933452B2 (en) * 2006-12-11 2011-04-26 Florida Atlantic University System and methods of image retrieval
US20080208791A1 (en) * 2007-02-27 2008-08-28 Madirakshi Das Retrieving images based on an example image
JP2008217428A (ja) * 2007-03-05 2008-09-18 Fujitsu Ltd 画像検索プログラム、方法及び装置
US20080222018A1 (en) * 2007-03-08 2008-09-11 Alejandro Backer Financial instruments and methods for the housing market
US20100131464A1 (en) * 2007-03-21 2010-05-27 Koninklijke Philips Electronics N.V. Method and apparatus for enabling simultaneous reproduction of a first media item and a second media item
US8117137B2 (en) * 2007-04-19 2012-02-14 Microsoft Corporation Field-programmable gate array based accelerator system
US8374880B2 (en) 2007-04-24 2013-02-12 Koninklijke Philips Electronics N.V. System for automatically creating a lighting atmosphere based on a keyword input
CN101295305B (zh) * 2007-04-25 2012-10-31 富士通株式会社 图像检索装置
GB2449501A (en) * 2007-05-25 2008-11-26 Univ Sheffield Searching method and system
US7945576B2 (en) * 2007-05-29 2011-05-17 Microsoft Corporation Location recognition using informative feature vocabulary trees
US9251172B2 (en) * 2007-06-01 2016-02-02 Getty Images (Us), Inc. Method and system for searching for digital assets
WO2009009631A2 (en) * 2007-07-10 2009-01-15 Asim Roy Systems and related methods of user-guided searching
US8713001B2 (en) * 2007-07-10 2014-04-29 Asim Roy Systems and related methods of user-guided searching
US20090063522A1 (en) * 2007-08-17 2009-03-05 Oracle International Corporation System and method for managing ontologies as service metadata assets in a metadata repository
US20090099922A1 (en) * 2007-08-23 2009-04-16 Andrew Paradies Advertising system and method
US20090064008A1 (en) * 2007-08-31 2009-03-05 Matsushita Electric Industrial Co., Ltd. User interaction for content based storage and retrieval
DE102007043730B3 (de) * 2007-09-13 2009-02-05 Siemens Ag Pre-Fetching von Dünn- und Dickschichtbilddaten
US8457416B2 (en) * 2007-09-13 2013-06-04 Microsoft Corporation Estimating word correlations from images
US8571850B2 (en) * 2007-09-13 2013-10-29 Microsoft Corporation Dual cross-media relevance model for image annotation
US8572087B1 (en) * 2007-10-17 2013-10-29 Google Inc. Content identification
US8370353B2 (en) * 2007-10-23 2013-02-05 Imaginestics Llc Component part search system with public and private communities
KR100933269B1 (ko) * 2007-11-13 2009-12-22 엔에이치엔(주) 색상 키워드를 이용한 검색 방법 및 시스템
US20090144238A1 (en) * 2007-12-04 2009-06-04 Microsoft Corporation Hide and seek game to elicit human input
US8165406B2 (en) * 2007-12-12 2012-04-24 Microsoft Corp. Interactive concept learning in image search
US8848897B2 (en) * 2007-12-20 2014-09-30 Verizon Patent And Licensing Inc. Automated multimedia call center agent
US10438152B1 (en) * 2008-01-25 2019-10-08 Amazon Technologies, Inc. Managing performance of human review of media data
US20090240681A1 (en) * 2008-03-20 2009-09-24 Nadeem Saddiqi Medical records network
US8190604B2 (en) * 2008-04-03 2012-05-29 Microsoft Corporation User intention modeling for interactive image retrieval
KR100955181B1 (ko) * 2008-04-15 2010-04-29 엔에이치엔(주) 이미지 검색방법 및 검색 시스템
US7962468B2 (en) * 2008-04-17 2011-06-14 Yahoo! Inc. System and method for providing image labeling game using CBIR
US8504547B1 (en) * 2008-04-23 2013-08-06 Google Inc. Customizing image search for user attributes
US20090276722A1 (en) * 2008-04-30 2009-11-05 Jonathan Segel Method and apparatus for dual mode content searching, selection, delivery, and playout
US20090287655A1 (en) * 2008-05-13 2009-11-19 Bennett James D Image search engine employing user suitability feedback
US20090290802A1 (en) * 2008-05-22 2009-11-26 Microsoft Corporation Concurrent multiple-instance learning for image categorization
US20090297045A1 (en) * 2008-05-29 2009-12-03 Poetker Robert B Evaluating subject interests from digital image records
US20090313558A1 (en) * 2008-06-11 2009-12-17 Microsoft Corporation Semantic Image Collection Visualization
US20090313239A1 (en) * 2008-06-16 2009-12-17 Microsoft Corporation Adaptive Visual Similarity for Text-Based Image Search Results Re-ranking
US8463053B1 (en) 2008-08-08 2013-06-11 The Research Foundation Of State University Of New York Enhanced max margin learning on multimodal data mining in a multimedia database
JP5237724B2 (ja) * 2008-08-19 2013-07-17 オリンパスイメージング株式会社 画像検索システム
US8489627B1 (en) * 2008-08-28 2013-07-16 Adobe Systems Incorporated Combined semantic description and visual attribute search
US8391618B1 (en) 2008-09-19 2013-03-05 Adobe Systems Incorporated Semantic image classification and search
US8171043B2 (en) * 2008-10-24 2012-05-01 Yahoo! Inc. Methods for improving the diversity of image search results
US8799259B2 (en) * 2008-11-07 2014-08-05 Core Wireless Licensing, S.a.r.l. Method and apparatus for quality ranking of media
US20100169178A1 (en) * 2008-12-26 2010-07-01 Microsoft Corporation Advertising Method for Image Search
DE102009007715B4 (de) * 2009-02-05 2011-04-07 Vodafone Holding Gmbh Verfahren und System zum automatischen Auffinden von elektronischen Bildern in einer Datensammlung
US8452794B2 (en) 2009-02-11 2013-05-28 Microsoft Corporation Visual and textual query suggestion
KR101368612B1 (ko) 2009-02-24 2014-02-27 이베이 인크. 다방향 비주얼 브라우징을 제공하는 시스템 및 방법
JP4706769B2 (ja) * 2009-03-23 2011-06-22 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置
CN101510218A (zh) * 2009-03-26 2009-08-19 阿里巴巴集团控股有限公司 实现图片搜索的方法及网站服务器
US9489403B2 (en) * 2009-04-09 2016-11-08 Nokia Technologies Oy Method and apparatus for providing visual search engine results
US8209330B1 (en) * 2009-05-29 2012-06-26 Google Inc. Ordering image search results
ES2377303B1 (es) * 2009-06-05 2013-02-01 Vodafone España S.A.U. Método y sistema para recomendar fotografías.
US8467631B2 (en) * 2009-06-30 2013-06-18 Red Hat Israel, Ltd. Method and apparatus for identification of image uniqueness
JP5676597B2 (ja) * 2009-06-30 2015-02-25 コーニンクレッカ フィリップス エヌ ヴェ 内容に基づく画像検索についての関連性フィードバック
US8515212B1 (en) 2009-07-17 2013-08-20 Google Inc. Image relevance model
US8478052B1 (en) 2009-07-17 2013-07-02 Google Inc. Image classification
KR101072691B1 (ko) * 2009-07-23 2011-10-11 포항공과대학교 산학협력단 연관성 피드백을 이용한 데이터베이스 검색 방법 및 이를 수행하는 프로그램을 기록한 기록매체
US8352465B1 (en) 2009-09-03 2013-01-08 Google Inc. Grouping of image search results
US8171049B2 (en) 2009-09-18 2012-05-01 Xerox Corporation System and method for information seeking in a multimedia collection
US20110072047A1 (en) * 2009-09-21 2011-03-24 Microsoft Corporation Interest Learning from an Image Collection for Advertising
US8392430B2 (en) * 2009-09-23 2013-03-05 Microsoft Corp. Concept-structured image search
US10176245B2 (en) * 2009-09-25 2019-01-08 International Business Machines Corporation Semantic query by example
US8458010B1 (en) 2009-10-13 2013-06-04 Amazon Technologies, Inc. Monitoring and enforcing price parity
US8676803B1 (en) 2009-11-04 2014-03-18 Google Inc. Clustering images
AU2009357597B2 (en) * 2009-12-30 2015-11-05 Nokia Technologies Oy Methods and apparatuses for facilitating content-based image retrieval
US8903166B2 (en) * 2010-01-20 2014-12-02 Microsoft Corporation Content-aware ranking for visual search
US8185526B2 (en) * 2010-01-21 2012-05-22 Microsoft Corporation Dynamic keyword suggestion and image-search re-ranking
US8775424B2 (en) * 2010-01-26 2014-07-08 Xerox Corporation System for creative image navigation and exploration
US20110191336A1 (en) * 2010-01-29 2011-08-04 Microsoft Corporation Contextual image search
CN102193934B (zh) * 2010-03-11 2013-05-29 株式会社理光 用于寻找图像集合中的代表性图像的系统和方法
US9589032B1 (en) * 2010-03-25 2017-03-07 A9.Com, Inc. Updating content pages with suggested search terms and search results
US20110246330A1 (en) * 2010-04-01 2011-10-06 Anup Tikku System and method for searching content
KR101116434B1 (ko) * 2010-04-14 2012-03-07 엔에이치엔(주) 이미지를 이용한 쿼리 제공 방법 및 시스템
WO2011136766A1 (en) * 2010-04-28 2011-11-03 Hewlett-Packard Development Company, L.P. System and method for automatically providing a graphical layout based on an example graphic layout
US8903798B2 (en) 2010-05-28 2014-12-02 Microsoft Corporation Real-time annotation and enrichment of captured video
US9703782B2 (en) 2010-05-28 2017-07-11 Microsoft Technology Licensing, Llc Associating media with metadata of near-duplicates
US8724910B1 (en) 2010-08-31 2014-05-13 Google Inc. Selection of representative images
US8538896B2 (en) * 2010-08-31 2013-09-17 Xerox Corporation Retrieval systems and methods employing probabilistic cross-media relevance feedback
US9002773B2 (en) 2010-09-24 2015-04-07 International Business Machines Corporation Decision-support application and system for problem solving using a question-answering system
US8990199B1 (en) * 2010-09-30 2015-03-24 Amazon Technologies, Inc. Content search with category-aware visual similarity
US8965116B2 (en) 2010-10-19 2015-02-24 3M Innovative Properties Company Computer-aided assignment of ratings to digital samples of a manufactured web product
US9317533B2 (en) 2010-11-02 2016-04-19 Microsoft Technology Licensing, Inc. Adaptive image retrieval database
US20120117051A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation Multi-modal approach to search query input
US8875007B2 (en) * 2010-11-08 2014-10-28 Microsoft Corporation Creating and modifying an image wiki page
JP5321564B2 (ja) * 2010-11-08 2013-10-23 ソニー株式会社 画像管理方法および装置、記録媒体、並びにプログラム
US8559682B2 (en) 2010-11-09 2013-10-15 Microsoft Corporation Building a person profile database
US8463045B2 (en) 2010-11-10 2013-06-11 Microsoft Corporation Hierarchical sparse representation for image retrieval
WO2012064522A1 (en) 2010-11-12 2012-05-18 3M Innovative Properties Company Rapid processing and detection of non-uniformities in web-based materials
US9311374B2 (en) * 2010-11-30 2016-04-12 Red Hat, Inc. Replicating data objects within a storage network based on resource attributes
US10108500B2 (en) 2010-11-30 2018-10-23 Red Hat, Inc. Replicating a group of data objects within a storage network
US8447767B2 (en) 2010-12-15 2013-05-21 Xerox Corporation System and method for multimedia information retrieval
US9158775B1 (en) 2010-12-18 2015-10-13 Google Inc. Scoring stream items in real time
US20120173577A1 (en) * 2010-12-30 2012-07-05 Pelco Inc. Searching recorded video
FR2973134B1 (fr) * 2011-03-23 2015-09-11 Xilopix Procede pour affiner les resultats d'une recherche dans une base de donnees
US9043316B1 (en) * 2011-03-28 2015-05-26 Google Inc. Visual content retrieval
US20120254790A1 (en) * 2011-03-31 2012-10-04 Xerox Corporation Direct, feature-based and multi-touch dynamic search and manipulation of image sets
US8671025B2 (en) 2011-04-21 2014-03-11 Art.Com, Inc. Method and system for image discovery via navigation of dimensions
JP2012226698A (ja) * 2011-04-22 2012-11-15 Canon Inc キーワード付与装置およびキーワード付与方法
US20120283574A1 (en) * 2011-05-06 2012-11-08 Park Sun Young Diagnosis Support System Providing Guidance to a User by Automated Retrieval of Similar Cancer Images with User Feedback
US8553981B2 (en) 2011-05-17 2013-10-08 Microsoft Corporation Gesture-based visual search
US9678992B2 (en) * 2011-05-18 2017-06-13 Microsoft Technology Licensing, Llc Text to image translation
US9082086B2 (en) 2011-05-20 2015-07-14 Microsoft Corporation Adaptively learning a similarity model
US8977629B2 (en) 2011-05-24 2015-03-10 Ebay Inc. Image-based popularity prediction
US9002831B1 (en) * 2011-06-10 2015-04-07 Google Inc. Query image search
KR101279576B1 (ko) * 2011-06-15 2013-06-27 삼성테크윈 주식회사 디지털 영상 처리 장치에서의 파노라마 영상 생성 방법
US8670609B2 (en) * 2011-07-22 2014-03-11 Canon Kabushiki Kaisha Systems and methods for evaluating images
FR2980290A1 (fr) * 2011-09-19 2013-03-22 Alcatel Lucent Systeme de reformulation de requete de moteur de recherche
US11068532B2 (en) 2011-09-21 2021-07-20 Horsetooth Ventures, LLC Interactive image display and selection system
US9734167B2 (en) 2011-09-21 2017-08-15 Horsetooth Ventures, LLC Interactive image display and selection system
US9152700B2 (en) * 2011-09-30 2015-10-06 Google Inc. Applying query based image relevance models
US8589410B2 (en) 2011-10-18 2013-11-19 Microsoft Corporation Visual search using multiple visual input modalities
WO2013063740A1 (en) * 2011-10-31 2013-05-10 Google Inc. Selecting images based on textual description
US9201133B2 (en) 2011-11-11 2015-12-01 The Board Of Trustees Of The Leland Stanford Junior University Method and system for signal-based localization
GB2515398B (en) * 2011-12-13 2018-02-14 Ibm Method,apparatus, and computer program for generating representative image and radiographic interpretation information for each case
JP5902196B2 (ja) * 2011-12-13 2016-04-13 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 医用画像を検索する方法、装置及びコンピュータプログラム
CN102609458B (zh) * 2012-01-12 2015-08-05 北京搜狗信息服务有限公司 一种图片推荐方法和装置
US9223776B2 (en) * 2012-03-27 2015-12-29 The Intellectual Group, Inc. Multimodal natural language query system for processing and analyzing voice and proximity-based queries
US9443314B1 (en) * 2012-03-29 2016-09-13 Google Inc. Hierarchical conditional random field model for labeling and segmenting images
US8855430B1 (en) 2012-05-30 2014-10-07 Google Inc. Refining image annotations
US9336302B1 (en) 2012-07-20 2016-05-10 Zuci Realty Llc Insight and algorithmic clustering for automated synthesis
US20140032583A1 (en) * 2012-07-27 2014-01-30 Sergey Ioffe Multi-Resolution Exploration of Large Image Datasets
US10268662B2 (en) * 2012-09-10 2019-04-23 The Boeing Company Panoptic visualization of a document according to the structure thereof
US9262442B2 (en) * 2012-09-20 2016-02-16 International Business Machines Corporation Techniques for generating a representative image and radiographic interpretation information for a case
EP2912576A4 (de) * 2012-10-23 2016-07-20 Leica Biosystems Imaging Inc Systeme und verfahren für einen bildspeicher für die pathologie
TWI480751B (zh) 2012-12-27 2015-04-11 Ind Tech Res Inst 互動式關聯物件檢索方法與系統
US9183261B2 (en) 2012-12-28 2015-11-10 Shutterstock, Inc. Lexicon based systems and methods for intelligent media search
US9183215B2 (en) 2012-12-29 2015-11-10 Shutterstock, Inc. Mosaic display systems and methods for intelligent media search
US9176993B2 (en) 2013-01-03 2015-11-03 Board Of Regents, The University Of Texas System Efficiently identifying images, videos, songs or documents most relevant to the user using binary search trees on attributes for guiding relevance feedback
WO2014107193A1 (en) * 2013-01-03 2014-07-10 Board Of Regents, The University Of Texas System Efficiently identifying images, videos, songs or documents most relevant to the user based on attribute feedback
US9582517B2 (en) 2013-03-14 2017-02-28 Shutterstock, Inc. Content based systems and methods for conducting spectrum color based image search
KR101505673B1 (ko) * 2013-03-22 2015-03-24 (주)네오넷코리아 단어의 의미를 기반으로 하는 다국어 검색 시스템, 다국어 검색 방법 및 이를 이용한 이미지 검색 시스템
JP5552552B2 (ja) * 2013-03-22 2014-07-16 オリンパスイメージング株式会社 画像検索システム
KR20140119217A (ko) * 2013-03-27 2014-10-10 (주)네오넷코리아 키워드 검색을 통해 사진 검색이 가능한 사진 공유 시스템 및 사진 공유 방법
US10282736B2 (en) * 2013-05-21 2019-05-07 Excalibur Ip, Llc Dynamic modification of a parameter of an image based on user interest
JP2014229282A (ja) * 2013-05-27 2014-12-08 キヤノン株式会社 画像検索装置および画像検索方法、システム、プログラムならびに記憶媒体
US9330110B2 (en) * 2013-07-17 2016-05-03 Xerox Corporation Image search system and method for personalized photo applications using semantic networks
US10319035B2 (en) 2013-10-11 2019-06-11 Ccc Information Services Image capturing and automatic labeling system
US10108617B2 (en) * 2013-10-30 2018-10-23 Texas Instruments Incorporated Using audio cues to improve object retrieval in video
CN104778170A (zh) * 2014-01-09 2015-07-15 阿里巴巴集团控股有限公司 搜索展示商品图像的方法和装置
US10409822B2 (en) * 2014-05-06 2019-09-10 Shutterstock, Inc. Systems and methods for presenting ranked search results
US9965547B2 (en) * 2014-05-09 2018-05-08 Camelot Uk Bidco Limited System and methods for automating trademark and service mark searches
US10102277B2 (en) 2014-05-15 2018-10-16 Sentient Technologies (Barbados) Limited Bayesian visual interactive search
US10606883B2 (en) 2014-05-15 2020-03-31 Evolv Technology Solutions, Inc. Selection of initial document collection for visual interactive search
US20150331908A1 (en) 2014-05-15 2015-11-19 Genetic Finance (Barbados) Limited Visual interactive search
US9208173B1 (en) * 2014-06-13 2015-12-08 Globalfoundries Inc. Techniques for medical image retreival
CN104133917B (zh) * 2014-08-15 2018-08-10 百度在线网络技术(北京)有限公司 照片的分类存储方法及装置
MX2017007253A (es) 2014-12-05 2017-10-16 Wal Mart Stores Inc Sistema y metodo para generar identificadores unicos globales.
CN104504110B (zh) * 2014-12-30 2019-05-03 百度在线网络技术(北京)有限公司 搜索方法和装置
US10471348B2 (en) 2015-07-24 2019-11-12 Activision Publishing, Inc. System and method for creating and sharing customized video game weapon configurations in multiplayer video games via one or more social networks
JP2018536247A (ja) 2015-09-28 2018-12-06 ウォル−マート・ストアーズ・インコーポレイテッドWal−Mart Stores, Inc. クラウドベースのセッション管理システム
US10162865B2 (en) 2015-10-08 2018-12-25 Microsoft Technology Licensing, Llc Generating image tags
US9818032B2 (en) * 2015-10-28 2017-11-14 Intel Corporation Automatic video summarization
US10404778B2 (en) 2015-12-09 2019-09-03 Walmart Apollo, Llc Session hand-off for mobile applications
KR102362868B1 (ko) * 2015-12-23 2022-02-15 삼성전자주식회사 사용자의 선호도에 따라 사용자에게 컨텐트들을 제공하는 방법 및 이를 위한 전자 장치
US20170262583A1 (en) * 2016-03-11 2017-09-14 International Business Machines Corporation Image processing and text analysis to determine medical condition
US10353947B2 (en) * 2016-04-25 2019-07-16 Adobe Inc. Relevancy evaluation for image search results
US10909459B2 (en) 2016-06-09 2021-02-02 Cognizant Technology Solutions U.S. Corporation Content embedding using deep metric learning algorithms
KR101806169B1 (ko) * 2016-07-25 2017-12-07 오드컨셉 주식회사 쇼핑 정보를 제공하는 방법, 장치, 시스템 및 컴퓨터 프로그램
EP3497584A4 (de) 2016-08-09 2020-03-11 Ripcord, Inc. Systeme und verfahren zum kontextuellen abrufen von elektronischen datensätzen
KR101911604B1 (ko) * 2016-10-21 2018-10-25 한국과학기술원 이벤트 검출을 위한 학습형 시스템 트레이닝장치 및 그 방법
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
US11176189B1 (en) * 2016-12-29 2021-11-16 Shutterstock, Inc. Relevance feedback with faceted search interface
JP6811645B2 (ja) * 2017-02-28 2021-01-13 株式会社日立製作所 画像検索装置及び画像検索方法
US10216766B2 (en) * 2017-03-20 2019-02-26 Adobe Inc. Large-scale image tagging using image-to-topic embedding
TWI753034B (zh) * 2017-03-31 2022-01-21 香港商阿里巴巴集團服務有限公司 特徵向量的產生、搜索方法、裝置及電子設備
US10956409B2 (en) * 2017-05-10 2021-03-23 International Business Machines Corporation Relevance model for session search
US10755144B2 (en) 2017-09-05 2020-08-25 Cognizant Technology Solutions U.S. Corporation Automated and unsupervised generation of real-world training data
US10755142B2 (en) 2017-09-05 2020-08-25 Cognizant Technology Solutions U.S. Corporation Automated and unsupervised generation of real-world training data
US11468051B1 (en) * 2018-02-15 2022-10-11 Shutterstock, Inc. Composition aware image search refinement using relevance feedback
US11372914B2 (en) * 2018-03-26 2022-06-28 Microsoft Technology Licensing, Llc Image annotation
US10523922B2 (en) 2018-04-06 2019-12-31 Zspace, Inc. Identifying replacement 3D images for 2D images via ranking criteria
US10523921B2 (en) 2018-04-06 2019-12-31 Zspace, Inc. Replacing 2D images with 3D images
US20190377983A1 (en) * 2018-06-11 2019-12-12 Microsoft Technology Licensing, Llc System and Method for Determining and Suggesting Contextually-Related Slide(s) in Slide Suggestions
US11068493B2 (en) * 2018-11-07 2021-07-20 Adobe Inc. Guided content discovery in visual search
CN111355543B (zh) * 2018-12-20 2023-01-17 中兴通讯股份有限公司 一种场强预测方法
US11403327B2 (en) * 2019-02-20 2022-08-02 International Business Machines Corporation Mixed initiative feature engineering
US11562227B2 (en) * 2019-03-13 2023-01-24 Accenture Global Solutions Limited Interactive assistant
WO2020188924A1 (ja) * 2019-03-20 2020-09-24 日本電気株式会社 情報処理装置、検索方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
US11403339B2 (en) * 2020-05-04 2022-08-02 Adobe Inc. Techniques for identifying color profiles for textual queries
JP2021196761A (ja) * 2020-06-11 2021-12-27 コニカミノルタ株式会社 画像処理装置、画像閲覧システム、画像処理プログラム、画像処理方法
US20230326225A1 (en) * 2022-04-08 2023-10-12 Thomson Reuters Enterprise Centre Gmbh System and method for machine learning document partitioning
WO2024058834A1 (en) * 2022-09-16 2024-03-21 Regulatory Education Events, LLC dba Supplement Advisory Group Systems and methods for compliance, keyword finder, and training tool
US11934452B1 (en) 2022-10-31 2024-03-19 Adobe Inc. Text-based color palette searches utilizing text-to-color models

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5020019A (en) 1989-05-29 1991-05-28 Ricoh Company, Ltd. Document retrieval system
JPH03122770A (ja) * 1989-10-05 1991-05-24 Ricoh Co Ltd キーワード連想文書検索方法
US5579471A (en) * 1992-11-09 1996-11-26 International Business Machines Corporation Image query system and method
JPH0721198A (ja) 1993-06-17 1995-01-24 Nippon Telegr & Teleph Corp <Ntt> 画像検索方法
JP3185505B2 (ja) 1993-12-24 2001-07-11 株式会社日立製作所 会議録作成支援装置
US5855015A (en) 1995-03-20 1998-12-29 Interval Research Corporation System and method for retrieval of hyperlinked information resources
US5594809A (en) * 1995-04-28 1997-01-14 Xerox Corporation Automatic training of character templates using a text line image, a text line transcription and a line image source model
US5721938A (en) * 1995-06-07 1998-02-24 Stuckey; Barbara K. Method and device for parsing and analyzing natural language sentences and text
US6076088A (en) 1996-02-09 2000-06-13 Paik; Woojin Information extraction system and method using concept relation concept (CRC) triples
US5983237A (en) * 1996-03-29 1999-11-09 Virage, Inc. Visual dictionary
US6314420B1 (en) 1996-04-04 2001-11-06 Lycos, Inc. Collaborative/adaptive search engine
US5870754A (en) * 1996-04-25 1999-02-09 Philips Electronics North America Corporation Video retrieval of MPEG compressed sequences using DC and motion signatures
US5832499A (en) * 1996-07-10 1998-11-03 Survivors Of The Shoah Visual History Foundation Digital library system
US5899999A (en) * 1996-10-16 1999-05-04 Microsoft Corporation Iterative convolution filter particularly suited for use in an image classification and retrieval system
US6041335A (en) 1997-02-10 2000-03-21 Merritt; Charles R. Method of annotating a primary image with an image and for transmitting the annotated primary image
JPH1139325A (ja) 1997-07-22 1999-02-12 Matsushita Electric Ind Co Ltd 類似検索方法及び類似検索システム
US5995978A (en) * 1997-09-24 1999-11-30 Ricoh Company, Ltd. Navigation system for document image database
US6301586B1 (en) 1997-10-06 2001-10-09 Canon Kabushiki Kaisha System for managing multimedia objects
US6324545B1 (en) 1997-10-15 2001-11-27 Colordesk Ltd. Personalized photo album
US6105055A (en) 1998-03-13 2000-08-15 Siemens Corporate Research, Inc. Method and apparatus for asynchronous multimedia collaboration
US6504571B1 (en) * 1998-05-18 2003-01-07 International Business Machines Corporation System and methods for querying digital image archives using recorded parameters
JP3615657B2 (ja) * 1998-05-27 2005-02-02 株式会社日立製作所 映像検索方法及び装置ならびに記録媒体
US6285995B1 (en) * 1998-06-22 2001-09-04 U.S. Philips Corporation Image retrieval system using a query image
JP2000048041A (ja) 1998-07-29 2000-02-18 Matsushita Electric Ind Co Ltd データ検索システム及びこれに用いる装置
US6369811B1 (en) * 1998-09-09 2002-04-09 Ricoh Company Limited Automatic adaptive document help for paper documents
JP4065470B2 (ja) 1998-09-30 2008-03-26 キヤノン株式会社 情報検索装置及びその制御方法
US20030069873A1 (en) * 1998-11-18 2003-04-10 Kevin L. Fox Multiple engine information retrieval and visualization system
CA2326813A1 (en) 1999-01-29 2000-08-03 Lg Electronics Inc. Method of searching or browsing multimedia data and data structure
US7016916B1 (en) 1999-02-01 2006-03-21 Lg Electronics Inc. Method of searching multimedia data
US6557042B1 (en) * 1999-03-19 2003-04-29 Microsoft Corporation Multimedia summary generation employing user feedback
US6408293B1 (en) 1999-06-09 2002-06-18 International Business Machines Corporation Interactive framework for understanding user's perception of multimedia data
KR100346262B1 (ko) 1999-08-27 2002-07-26 엘지전자주식회사 멀티미디어 데이타의 키워드 자가 생성방법
JP3921015B2 (ja) 1999-09-24 2007-05-30 富士通株式会社 画像解析装置及び方法並びにプログラム記録媒体
KR100346264B1 (ko) 1999-12-02 2002-07-26 엘지전자주식회사 멀티미디어 특징소 정보의 갱신방법과 멀티미디어 특징소 정보 생성방법
WO2002008948A2 (en) 2000-07-24 2002-01-31 Vivcom, Inc. System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
US6728706B2 (en) * 2001-03-23 2004-04-27 International Business Machines Corporation Searching products catalogs
US6748398B2 (en) 2001-03-30 2004-06-08 Microsoft Corporation Relevance maximizing, iteration minimizing, relevance-feedback, content-based image retrieval (CBIR)
US6901411B2 (en) 2002-02-11 2005-05-31 Microsoft Corporation Statistical bigram correlation model for image retrieval
US7043474B2 (en) 2002-04-15 2006-05-09 International Business Machines Corporation System and method for measuring image similarity based on semantic meaning

Also Published As

Publication number Publication date
EP1202187A3 (de) 2003-11-26
ATE368897T1 (de) 2007-08-15
EP1202187B1 (de) 2007-08-01
US7499916B2 (en) 2009-03-03
US7099860B1 (en) 2006-08-29
US20040267740A1 (en) 2004-12-30
US20050055344A1 (en) 2005-03-10
JP2007242065A (ja) 2007-09-20
JP2002197117A (ja) 2002-07-12
DE60129652D1 (de) 2007-09-13
JP4210311B2 (ja) 2009-01-14
US7529732B2 (en) 2009-05-05
EP1202187A2 (de) 2002-05-02
JP4108961B2 (ja) 2008-06-25

Similar Documents

Publication Publication Date Title
DE60129652T2 (de) Bildwiederauffindungssystem und Methode mit semantischer und eigenschaftenbasierter Relevanzrückmeldung
DE69835753T2 (de) Verfahren und gerät zur graphischen abbildung von webteilen
DE60213409T2 (de) Erstellung von strukturierten daten aus unformatiertem text
EP1311989B1 (de) Verfahren zur automatischen recherche
DE69727421T2 (de) Hypertext-Dokumentwiederauffindungssystem zum Wiederauffinden zusammengehöriger Hypertextdokumente
DE602004003361T2 (de) System und verfahren zur erzeugung von verfeinerungskategorien für eine gruppe von suchergebnissen
DE60208604T2 (de) Automatisches Verfahren zur Erzeugung von Image-buttons
DE19842688B4 (de) Verfahren zum Filtern von Daten, die von einem Datenanbieter stammen
DE69837199T2 (de) Verfahren, vorrichtung und datenträger zur intelligenten auswahl von suchwörtern in einer tastaturlosen umgebung
DE3901485C2 (de) Verfahren und Vorrichtung zur Durchführung des Verfahrens zur Wiedergewinnung von Dokumenten
DE69923650T2 (de) System für mehrsprachige Informationswiederauffindung
DE60226232T2 (de) Inhaltsverwaltungssystem
DE69834386T2 (de) Textverarbeitungsverfahren und rückholsystem und verfahren
DE69931256T2 (de) Verfahren und system zum zurückholen einer elektronischen akte
DE69933187T2 (de) Dokumentensuchverfahren und Dienst
US20050004949A1 (en) Information processing
DE19751570A1 (de) Dokumentmanagementsystem, Verfahren zum Betreiben eines solchen Systems und Digitalkopierer
DE10317234A1 (de) Systeme und Verfahren für eine verbesserte Genauigkeit von einem extrahierten digitalen Inhalt
DE10135445A1 (de) Integriertes Verfahren für das Schaffen einer aktualisierbaren Netzabfrage
DE69719641T2 (de) Ein Verfahren, um Informationen auf Bildschirmgeräten in verschiedenen Grössen zu präsentieren
DE102006040208A1 (de) Patentbezogenes Suchverfahren und -system
DE102004057862A1 (de) Verfahren zum Abrufen von Bilddokumenten unter Verwendung von Hierarchie- und Kontexttechniken
WO2009030248A1 (de) Erfassung von zusammenhängen zwischen informationen repräsentierenden daten
EP1170678B1 (de) Verfahren und Vorrichtung zur automatischen Suche relevanter Bilddatensätze
DE102018104438A1 (de) Computerimplementiertes Verfahren zum Beschaffen von Informationen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition