DE60129652T2 - Bildwiederauffindungssystem und Methode mit semantischer und eigenschaftenbasierter Relevanzrückmeldung - Google Patents
Bildwiederauffindungssystem und Methode mit semantischer und eigenschaftenbasierter Relevanzrückmeldung Download PDFInfo
- Publication number
- DE60129652T2 DE60129652T2 DE60129652T DE60129652T DE60129652T2 DE 60129652 T2 DE60129652 T2 DE 60129652T2 DE 60129652 T DE60129652 T DE 60129652T DE 60129652 T DE60129652 T DE 60129652T DE 60129652 T2 DE60129652 T2 DE 60129652T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- images
- user
- query
- feedback
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5862—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using texture
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
- Y10S707/99933—Query processing, i.e. searching
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
- Y10S707/99933—Query processing, i.e. searching
- Y10S707/99934—Query formulation, input preparation, or translation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
- Y10S707/99933—Query processing, i.e. searching
- Y10S707/99935—Query augmenting and refining, e.g. inexact access
Description
- Die Erfindung betrifft Bildrecherchesysteme.
- Digitalisierte Bilder erfreuen sich immer größerer Beliebtheit auf Grund verbesserter Verarbeitungstechnologien für digitalisierte Bilder und einfacher Verfügbarkeit, die durch das Internet erleichtert wird. Täglich stehen immer mehr digitalisierte Bilder zur Verfügung.
- Automatische Bildrecherchesysteme bieten den Benutzern effiziente Möglichkeiten, durch die wachsende Anzahl von verfügbaren Bildern zu navigieren. Herkömmliche Bildrecherchesysteme gestatten es den Benutzern, Bilder auf eine von zwei Arten abzufragen: (1) stichwortbasierte Bildrecherche oder (2) inhaltsbasierte Bildrecherche. Die stichwortbasierte Bildrecherche sucht Bilder durch Abgleichen von Stichwörtern aus einer Benutzerabfrage mit Stichwörtern, die den Bildern manuell hinzugefügt worden sind. Eine der bekannteren Sammlungen von kommentierten Bildern ist Corel Gallery, eine Bilddatenbank von Corel Corporation, die über eine Million kommentierter Bilder enthält.
- Ein Problem bei stichwortbasierten Bildrecherchesystemen ist, dass es für einen Benutzer schwierig oder unmöglich sein kann, die inhärente Komplexität gewisser Bilder präzise zu beschreiben. Als Ergebnis dessen kann die Recherchegenauigkeit stark eingeschränkt sein, weil Bilder, die nicht beschrieben werden können, oder die nur uneindeutig beschrieben werden können, nicht erfolgreich abgefragt werden. Außerdem gibt es auf Grund der enormen Last von manuellen Kommentaren wenige Datenbanken mit kommentierten Bildern, obwohl sich dies ändert.
- Die inhaltsbasierte Bildrecherche (CBIR) sucht Bilder, die Grundmerkmalen eines Beispiels ähnlich sind, wie beispielsweise Farbhistogramm, Struktur, Form und so weiter. Obwohl die CBIR das Problem von stichwortbasierter Bildrecherche löst, weist sie auch starke Defizite auf. Ein Nachteil der CBIR ist, dass Suchvorgänge vollkommen irrelevante Bilder zurückgeben können, die zufälligerweise ähnliche Merkmale besitzen. Außerdem enthalten einzelne Objekte in Bildern eine große Bandbreite von Grundmerkmalen.
- Daher beschreibt die Verwendung der Grundmerkmale allein nicht zufriedenstellend, was abgefragt werden soll.
- Um die in der CBIR zurückgegebenen irrelevanten Bilder auszusondern, setzen einige CBIR-basierte Bildrecherchesysteme ein Benutzer-Feedback ein, um hinsichtlich der Relevanz gewisser Bilder zu einem Verständnis zu gelangen. Nach einer Erstabfrage schätzen solche Systeme die ideale Abfrage des Benutzers, indem sie die vom Benutzer eingegebenen positiven und negativen Antworten auf die von der Abfrage zurückgegebenen Bilder überwachen. Dieser Ansatz reduziert für einen Benutzer die Notwendigkeit, akkurate Erstabfragen bereitzustellen.
- Ein Typ eines Ansatzes eines Relevanz-Feedbacks besteht darin, ideale Abfrageparameter zu schätzen, wobei nur die Grundbildmerkmale verwendet werden. Dieser Ansatz funktioniert gut, wenn die Merkmalsvektoren das Wesentliche der Abfrage erfassen können. Wenn der Benutzer zum Beispiel nach einem Bild mit komplexen Strukturen sucht, die eine bestimmte Farbkombination aufweisen, wäre diese Abfrage extrem schwierig zu beschreiben, kann aber durch eine Kombination von Farb- und Strukturmerkmalen einigermaßen dargestellt werden. Daher kann der Prozess des Relevanz-Feedbacks mit einigen positiven und negativen Beispielen einigermaßen akkurate Ergebnisse zurückgeben. Wenn der Benutzer andererseits nach einem spezifischen Objekt sucht, das durch Kombinationen von verfügbaren Merkmalsvektoren nicht ausreichend dargestellt werden kann, geben diese Relevanz-Feedback-Systeme nicht viele relevante Ergebnisse zurück, auch nicht mit einer großen Anzahl von Benutzer-Feedbacks.
- Einige Forscher haben versucht, Modelle auf die Bildrecherche anzuwenden, die in der Textinformationsrecherche verwendet werden. Eines der beliebtesten Modelle, das in der Textinformationsrecherche verwendet wird, ist das Vektormodell. Das Vektormodell wird in solchen Schriften beschrieben, wie von Buckley und Salton, "Optimization of Relevance Feedback Weights", in Proc. Of SIGIR '95; Salton und McGill, "Introduction to Modern Information Retrieval", McGraw-Hill Book Company, 1983; und W.M. Shaw, "Term-Relevance Computation and Perfect Retrieval Performance", Information Processing and Management. Verschiedene effektive Recherche-Techniken wurden für dieses Modell entwickelt, und viele setzen Relevanz-Feedback ein.
- Die meisten der bisherigen Relevanz-Feedback-Recherchen können in zwei Ansätze klassifiziert werden: Abfragepunktverschiebung (query point movement) und Neugewichtung (re-weighting). Das Verfahren der Abfragepunktverschiebung versucht im Wesentlichen, die Schätzung eines "idealen Abfragepunkts" zu verbessern, indem es ihn zu guten Beispielpunkten hin und von schlechten Beispielpunkten weg verschiebt. Die häufig verwendete Technik zum iterativen Verbessern dieser Schätzung ist die im Folgenden angegebene Rocchio-Formel für Gruppen von relevanten Dokumenten D'R und nicht-relevanten Dokumenten D'N, die vom Benutzer zur Kenntnis genommen worden sind: wobei α, β und γ geeignete Konstanten sind, und NR' und NN' jeweils die Anzahl von Dokumenten D'R und D'N sind. Diese Technik ist zum Beispiel in dem MARS-System implementiert, wie von Rui, Y., Huang, T.S. und Mehrotra, S. in "Content-Based Image Retrieval with Relevance Feedback in MARS" in Proc. IEEE Int. Conf. On Image Proc., 1997 beschrieben.
- Das Hauptkonzept hinter dem Neugewichtungs-Verfahren ist sehr einfach und intuitiv. Da jedes Bild durch einen N-dimensionalen Merkmalsvektor dargestellt wird, kann das Bild als ein Punkt in einem N-dimensionalen Raum betrachtet werden. Wenn daher die Abweichung der guten Beispiele entlang einer Hauptachse j hoch ist, sind die Werte auf dieser Achse sehr wahrscheinlich für die eingegebene Abfrage nicht sehr relevant, und der Achse kann eine niedrige Gewichtung wj zugewiesen werden. Daher wird die Umkehrung der Standardabweichung der j-ten Merkmalswerte in der Merkmalsmatrix als das Grundkonzept zum Aktualisieren der Gewichtung wj verwendet. Das oben erwähnte MARS-System implementiert eine leichte Verfeinerung in dem Neugewichtungsverfahren, das als Standardabweichungsverfahren bezeichnet wird.
- In letzter Zeit sind rechnerisch robustere Verfahren für die Durchführung einer globalen Optimierung vorgeschlagen worden. Ein solcher Vorschlag ist das MindReader-Recher chesystem, das in Ishikawa, Y., Subramanya R. und Faloutsos, C., "Mindreader: Query Databases Through Multiple Examples", in Proc. der 24. VLDB Conference, (New York), 1998 beschrieben wird. Es formuliert ein Minimierungsproblem im Parameterschätzungsprozess. Im Gegensatz zu herkömmlichen Recherchesystemen mit einer Abstandsfunktion, die durch Ellipsen dargestellt werden kann, die auf die Koordinatenachse ausgerichtet sind, schlug das MindReader-System eine Abstandsfunktion vor, die nicht notwendigerweise auf die Koordinatenachse ausgerichtet ist. Daher ermöglicht es Korrelationen zwischen Attributen zusätzlich zu verschiedenen Gewichtungen auf jeder Komponente.
- Eine weitere Verbesserung hinsichtlich dieses Ansatzes wird in Rui, Y., Huang, T.S., "A Novel Relevance Feedback Technique in Image Retrieval", ACM Multimedia, 1999 beschrieben. Ihr CBIR-System formuliert nicht nur das Optimierungsproblem, sondern berücksichtigt auch das mehrstufige Bildmodell.
- Alle oben beschriebenen Ansätze führen ein Relevanz-Feedback auf der Grundmerkmalsvektor-Ebene in der Bildrecherche durch, berücksichtigen aber keinerlei Semantik für die Bilder selbst. Das inhärente Problem bei diesen Ansätzen besteht darin, dass die Einführung des in der Textinformationsrecherche verwendeten Relevanz-Feedbacks in die Bildrecherche sich als nicht so erfolgreich erweist wie erhofft. Dies ist primär darauf zurückzuführen, dass Grundmerkmale oft nicht so leistungsstark bei der Darstellung eines vollständigen semantischen Inhalts von Bildern sind.
- Als Ergebnis dessen bemühte man sich, Semantik in das Relevanz-Feedback für die Bildrecherche zu integrieren. In Lee, Ma und Zhang, "Information Embedding Based on User's Relevance Feedback for Image Retrieval", Technical Report HP Labs, 1998, schlagen die Autoren ein Bezugssystem vor, das versucht, semantische Informationen unter Verwendung einer Korrelationsmatrix in einen grundmerkmalsbasierten Bildrechercheprozess einzubetten. In diesem Rahmen ergibt sich die semantische Relevanz zwischen Bild-Clustern aus dem Feedback eines Benutzers und wird zum Verbessern der Rechercheleistung verwendet.
- Es bleibt jedoch ein Bedarf in Bezug auf Verbesserungen in den Bildrecherchesystemen und den Verfahren bestehen, die mit Relevanz-Feedback arbeiten. Die Erfinder schlagen ein System vor, das sowohl Semantik als auch Grundmerkmale auf eine neue Art und Weise in den Relevanz-Feedback-Prozess integriert. Nur wenn die Semantikinformationen nicht zur Verfügung stehen, wird die Technik im speziellen Fall auf einen der vorher beschriebenen Ansätze des Grund-Feedbacks reduziert.
- US-A-5 899 999 offenbart ein iteratives Faltungsfilter (convolution filter), das besonders für den Einsatz in einem Bildklassifizierungs- und Recherchesystem geeignet ist. Ein Benutzer stellt eine textbasierte Abfrage bereit, die zu einem Datenbank-Manager weitergeleitet wird. Der Datenbank-Manager greift dann auf alle Einträge in der Datenbank zu, die einen oder mehrere Begriffe in der Abfrage enthalten. Der Benutzer kann alle oder einige Bilder auswählen, die als eine Vorschau dargestellt sind. Im Block
430 werden der Durchschnitt und Abweichungsvektoren für Signaturen der Abfragebilder berechnet. Diejenigen Bilder, die die höchsten Ähnlichkeitsmaße besitzen, werden für den Benutzer dargestellt. - US-A-5 020 019 offenbart ein Dokumentrecherchesystem einschließlich eines Lernkontrollabschnitts, der dazu dient, die Quote (rate) jeder Stichwortverbindung zu modifizieren.
- US-A-6 076 088 offenbart ein System und ein Verfahren zur Informationsextraktion unter Verwendung einer Dreiergruppe Konzept-Relation-Konzept (CRC) (Concept Relation Concept).
- US-A-5 297 042 offenbart ein Stichwortverbindungs-Dokumentrecherchesystem, das eine Gruppe von Dokumenten abfragen kann, die von einem Benutzer angefordert werden. Eine Eingabe-Analyseeinheit
1 führt die Stichwortdaten und Quotendaten (rate data) Qk für alle Stichwortdaten, die durch die Analyse der Recherchebedingung erhalten wurden, der inhaltsorientierten (associative) Rechercheeinheit2 zu. Bei den Quotendaten Q wird davon ausgegangen, dass sie in einem Bereich zwischen 0 und 1 liegen. Beziehungswerte und Gewichtungswerte werden in der inhaltsorientierten Rechercheeinheit2 eingestellt. Jeder der Beziehungswerte wird als der Grad der Beziehung zwischen den Stichwörtern definiert, und jeder der Gewichtungswerte wird als der Grad der Gewichtung des Stichworts in jedem Dokument definiert. Der Relevanzwert jedes Dokuments stellt den Grad der Relevanz bezüglich der Zufriedenstellung der Anforderung des Benutzers dar. Der Ausgabe-Controller3 sortiert alle Dokumente in einer absteigenden Reihenfolge des Reievanzwerts und erstellt eine Dokumentenliste, in der die Dokumente in dieser Reihenfolge angeordnet werden. Der Benutzer bestimmt, ob das auf der Anzeigeeinheit angezeigte Rechercheergebnis für den Benutzer zufriedenstellend ist oder nicht. Eine Lerneinheit4 ändert die Beziehungswerte und die Gewichtungswerte auf der Basis der vom Benutzer bereitgestellten Lehrdaten (teacher data). - Es ist die Aufgabe der vorliegenden Erfindung, verbesserte Verfahren, Bildrecherchesysteme, Datenbankstrukturen und entsprechende computerlesbare Medien bereitzustellen, um auf eine Benutzerabfrage hin Bilder in einer Datenbank zu suchen.
- Diese Aufgabe wird durch den Gegenstand der selbstständigen Ansprüche gelöst.
- Bevorzugte Ausführungsformen werden durch den Gegenstand der Unteransprüche definiert.
- Ein Bildrecherchesystem führt sowohl eine stichwortbasierte als auch eine inhaltsbasierte Bildrecherche durch. Eine Benutzerschnittstelle ermöglicht es einem Benutzer, eine Abfrage unter Verwendung einer Kombination von Stichwörtern und Beispielbildern zu spezifizieren. Abhängig von der Eingabeabfrage sucht das Bildrecherchesystem Bilder mit Stichwörtern, die mit den Stichwörtern in der Abfrage und/oder Bildern mit ähnlichen Grundmerkmalen, wie beispielsweise Farbe, Struktur und Form übereinstimmen. Das System sortiert die Bilder der Rangfolge nach und gibt sie an den Benutzer zurück.
- Die Benutzerschnittstelle ermöglicht es dem Benutzer, sowohl Bilder zu identifizieren, die für die Abfrage relevanter sind, als auch Bilder, die weniger oder nicht relevant sind. Das Bildrecherchesystem überwacht das Benutzer-Feedback und verwendet es zum Verfeinern aller Suchbemühungen und um sich selbst für künftige Suchabfragen zu schulen.
- In der beschriebenen Implementierung nimmt das Bildrecherchesystem eine nahtlose Integration von merkmalsbasiertem Relevanz-Feedback und semantikbasiertem Relevanz-Feedback vor. Mit merkmalsbasiertem Relevanz-Feedback lernt das System, wel che Grundmerkmale zu relevanten Bildern führen, und gruppiert solche Merkmale zusammen, um künftige Suchvorgänge zu unterstützen.
- Mit semantikbasiertem Relevanz-Feedback lernt das Bildrecherchesystem, welche Stichwörter mit den relevanten Bildern identifiziert werden, und verstärkt die Verbindungen zwischen den Stichwörtern und Bildern. Insbesondere werden die Bilder und Stichwörter in einer Datenbank verwaltet, und um Verbindungen zwischen den Stichwörtern und Bildern zu definieren, wird auf der Bilddatenbank ein semantisches Netzwerk aufgebaut und aktualisiert, wenn Benutzer-Feedbacks bereitgestellt werden. Den Stichwort-Bild-Verbindungen werden Gewichtungen zugewiesen, um anzugeben, wie relevant das Stichwort für das Bild ist. Die Gewichtungen werden dem Benutzer-Feedback entsprechend angepasst, wodurch die Verbindungen zwischen Stichwörtern und Bildern, die als relevanter identifiziert worden sind, verstärkt werden, und die Verbindungen zwischen Stichwörtern und Bildern, die als weniger relevant identifiziert worden sind, abgeschwächt werden.
-
1 ist ein Blockschaltbild eines beispielhaften Computer-Netzwerks, in dem ein Server-Computer ein Bildrecherchesystem implementiert, auf das über ein Netzwerk von einem oder mehreren Client-Computern zugegriffen werden kann. -
2 ist ein Blockschaltbild der Architektur des Bildrecherchesystems. -
3 veranschaulicht ein Semantik-Netzwerk, das Beziehungen zwischen Stichwörtern und Bildern darstellt. -
4 ist ein Ablaufdiagramm eines Erstabfrage-Verarbeitungsprozesses, in dem ein Benutzer erstmals eine Stichwortabfrage für ein Bild vorlegt. -
5 ist ein Ablaufdiagramm eines Verfeinerungs- und Lernprozesses, in dem das Bildrecherchesystem aus dem dazugehörigen Benutzer-Feedback lernt, wie relevant die Bilder für die Erstabfrage sind. -
6 veranschaulicht eine erste Bildschirmansicht einer Benutzerschnittstelle für das Bildrecherchesystem. -
7 veranschaulicht eine zweite Bildschirmansicht der Benutzerschnittstelle für das Bildrecherchesystem. - Diese Offenbarung beschreibt ein Bildrecherchesystem, das sowohl eine stichwortbasierte als auch inhaltsbasierte Bildrecherche durchführt. Das System nimmt eine nahtlose Integration von merkmalsbasiertem Relevanz-Feedback und semantikbasiertem Relevanz-Feedback vor. Das Bildrecherchesystem unterstützt auch ein Semantik-Netzwerk, das auf einer Bilddatenbank aufgebaut ist, um Stichwörter mit Bildern zu verbinden, und arbeitet mit Maschinenlernen (machine learning), um das Semantik-Netzwerk basierend auf dem Benutzer-Feedback anzupassen.
- Die Bildrecherche-Architektur wird im Kontext eines internetbasierten Systems beschrieben, in dem ein Server das Bildrecherchesystem betreibt, und Clients Benutzerabfragen an den Server weiterleiten. Die Architektur kann jedoch in anderen Umgebungen implementiert werden. Zum Beispiel kann die Bildrecherche-Architektur in nicht-internetbasierten Client-Server-Systemen oder auf einem nicht-vernetzten Computersystem implementiert werden.
- Beispielhafte Rechenumgebung
-
1 zeigt ein beispielhaftes Computer-Netzwerksystem100 , in welches das Bildrecherchesystem implementiert werden kann. Das Netzwerksystem100 umfasst einen Client-Computer102 , der Abfragen an einen Server-Computer104 über ein Netzwerk106 , wie beispielsweise das Internet, weiterleitet. Obwohl das Bildrecherchesystem unter Verwendung anderer Netzwerke implementiert werden kann, (z.B. Weitverkehrsnetz oder lokales Netzwerk), und nicht auf das Internet begrenzt werden soll, wird das System im Kontext des Internets als eine geeignete Implementierung beschrieben. Das webbasierte Recherchesystem ermöglicht es mehreren Benutzern, Rechercheaufgaben jederzeit gleichzeitig durchzuführen. - Der Client
102 ist repräsentativ für viele verschiedene Computer, (z.B. Desktop-Computer, Laptop-Computer usw.), Netzwerkgeräte, (z.B. Set-Top-Box (STB), Spielkonsole usw.) und dergleichen. Der Client102 umfasst einen Prozessor110 , einen flüchtigen Speicher112 (z.B. RAM) und einen nicht-flüchtigen Speicher114 (z.B. ROM. Flash, Festplatte, Bildplatte usw.). Der Client102 weist auch eine oder mehrere Eingabevorrichtungen116 (z.B. Tastatur, Tastenfeld, Maus, Fernbedienung, Schreibnadel, Mikrofon usw.) und eine Anzeigevorrichtung118 zum Anzeigen von Bildern auf, die von dem Bildrecherchesystem zurückgegeben werden. - Der Client
102 ist mit einem Browser120 ausgestattet, der im nicht-flüchtigen Speicher114 gespeichert ist und im Prozessor110 ausgeführt wird. Der Browser leitet über das Netzwerk106 Abfragen an den Server104 weiter und empfängt Antworten von diesem. Zu Diskussionszwecken kann der Browser120 als ein herkömmlicher Internet-Browser konfiguriert werden, der Dokumente empfangen und wiedergeben kann, die in einer Auszeichnungssprache geschrieben sind, wie beispielsweise HTML (Hypertext Markup Language). Der Browser kann des Weiteren zum Darstellen der Bilder auf der Anzeigevorrichtung118 verwendet werden. - Der Server
104 ist repräsentativ für viele verschiedene Server-Umgebungen, einschließlich eines Servers für ein lokales Netzwerk oder ein Weltverkehrsnetz, ein Backend für einen derartigen Server oder einen Web-Server. In dieser letzteren Umgebung eines Web-Servers kann der Server104 als einer oder mehrere Computer implementiert werden, die mit einer Server-Software konfiguriert sind, um eine Site im Internet106 , wie beispielsweise eine Web-Site, zum Suchen zu betreiben. - Der Server
104 weist einen Prozessor130 , einen flüchtigen Speicher132 (z.B. RAM) und einen nicht-flüchtigen Speicher134 (z.B. ROM, Flash, Festplatte, Bildplatte, RAID-Speicher usw.) auf. Der Server104 betreibt ein Betriebssystem136 und ein Bildrecherchesystem140 . Zu Veranschaulichungszwecken sind das Betriebssystem136 und das Bildrecherchesystem140 als diskrete Blöcke dargestellt, die in dem nicht-flüchtigen Speicher134 gespeichert sind, obwohl anerkannt wird, dass solche Programme und Komponenten zu verschiedenen Zeiten in verschiedenen Speicherkomponenten des Servers104 resident sind und von dem Prozessor130 ausgeführt werden. Im Allgemeinen sind diese Software-Komponenten im nicht-flüchtigen Speicher134 gespeichert und werden von da aus für die Ausführung auf dem Prozessor130 wenigstens teilweise in den flüchtigen Hauptspeicher132 geladen. - Das Bildrecherchesystem
140 sucht nach Bildern, die in der Bilddatenbank142 gespeichert sind. Das Bildrecherchesystem140 umfasst einen Abfrage-Handler150 , eine Merkmals- und Semantik-Abgleicheinrichtung152 und eine Feedback-Analysiereinrichtung154 . - Der Abfrage-Handler
150 bearbeitet Abfragen, die vom Client102 empfangen werden. Die Abfragen können in Form von Abfragen in natürlicher Sprache, Einzelwortabfragen oder Bildabfragen vorliegen, die Grundmerkmale eines Beispielbilds enthaften, das die Grundlage der Suche bildet. Abhängig vom Abfragetyp initiiert der Abfrage-Handler150 eine stichwort- oder merkmalsbasierte Suche in der Bilddatenbank142 . - Die Merkmals- und Semantik-Abgleicheinrichtung
152 versucht Bilder in der Datenbank142 zu finden, die Grundmerkmale enthalten, die dem Beispielbild ähnlich sind und/oder zugehörige Stichwörter aufweisen, die mit Stichwörtern in der Benutzerabfrage übereinstimmen. Die Merkmals- und Semantik-Abgleicheinrichtung152 verwendet ein Semantik-Netzwerk, um Bilder mit ähnlichen Stichwörtern ausfindig zu machen. Das Semantik-Netzwerk definiert Verbindungen zwischen den Stichwörtern und Bildern. Den Verbindungen werden Gewichtungen zugewiesen, um anzugeben, wie relevant gewisse Stichwörter für die Bilder sind. Ein beispielhaftes Semantik-Netzwerk wird im Folgenden ausführlicher unter Bezugnahme auf3 beschreiben. - Die Merkmals- und Semantik-Abgleicheinrichtung
152 ordnet die Bilder ihrer Relevanz für die Abfrage entsprechend nach ihrem Rang ein und gibt die Bilder in der Rangreihenfolge zur Überprüfung durch den Benutzer zurück. Über eine Benutzerschnittstelle kann der Benutzer einzelne Bilder als für die Abfrage relevanter oder als weniger oder nicht relevant für die Abfrage kennzeichnen oder andennreitig identifizieren. - Die Feedback-Analysiereinrichtung
154 überwacht das Benutzer-Feedback und analysiert, welche Bilder als für die Suche relevant erachtet werden und welche nicht. Die Feedback-Analysiereinrichtung154 verwendet das Relevanz-Feedback, um das Semantik-Netzwerk in der Bilddatenbank zu schulen. Zum Beispiel kann die Feedback-Analysiereinrichtung154 die Kommentare zu relevanten Bilden modifizieren, damit sie den Stichwörtern in der Suchabfrage besser entsprechen. Die Analysiereinrichtung154 kann auch die Gewichtungen des Semantik-Netzwerks durch Verstärken der Verbindun gen zwischen Stichwörtern der Suchabfrage und relevanten Bildern und Abschwächen der Verbindungen zwischen Stichwörtern und nicht-relevanten Bildern anpassen. - Dementsprechend nimmt das Bildrecherchesystem eine nahtlose lntegration von inhaltsbasierter Bildrecherche (CBIR) und semantikbasierter Bildrecherche vor. Das System integriert auch semantik- und merkmalsbasiertes Relevanz-Feedback. Das System weist enorme Vorteile hinsichtlich Recherchegenauigkeit und Benutzerfreundlichkeit auf.
- Architektur des Bildrecherchesystems
-
2 veranschaulicht die Architektur des Bildrecherchesystems140 ausführlicher. Sie weist eine Benutzerschnittstelle (UI) 200 auf, die sowohl textbasierte Stichwortabfragen oder Abfragen in natürlicher Sprache und die Auswahl von Beispielbildern akzeptiert. Somit kann ein Benutzer wählen, ob er Wörter eingibt oder ein Beispielbild auswählt, das als erste Suchabfrage verwendet werden soll. Die UI 200 stellt auch Navigationswerkzeuge bereit, um es dem Benutzer zu ermöglichen, mehrere Bilder zu durchsuchen. Im Netzwerksystem von1 kann die UI 200 als HTML-Dokument bedient und auf der Client-Anzeige wiedergegeben werden. Eine beispielhafte Implementierung der Benutzerschnittstelle200 wird im Folgenden ausführlicher unter der Überschrift "Benutzerschnittstelle" beschrieben. - Die Abfrage wird an den Abfrage-Handler
150 übergeben. In der veranschaulichten Implementierung umfasst der Abfrage-Handler150 einen Parser202 für natürliche Sprache zum Parsen von textbasierten Abfragen, wie beispielsweise Stichwörter, Phrasen und Sätze. Der Parser202 ist so konfiguriert, dass er Stichwörter aus der Abfrage extrahiert und syntaktische und semantische Informationen aus Abfragen in natürlicher Sprache verwenden kann, um Stichwörter besser zu verstehen und zu identifizieren. Die analysierten Ergebnisse werden als Eingabe in das Semantik-Netzwerk verwendet, das Stichwörter mit Bilder in der Datenbank142 verbindet. -
3 stellt ein Semantik-Netzwerk300 bildlich dar. Das Netzwerk definiert Stichwort-Bild-Verknüpfungen, die Stichwörter302(1) ,203(2) , ...,302(N) mit Bildern304(1) ,304(2) ,304(3) , ...,304(M) in der Datenbank142 verbinden. Die Stichwort-Bild-Verknüpfungen sind als Pfeile dargestellt. Gewichtungen w sind jeder einzelnen Verknüp fung zugewiesen, um den Grad an Relevanz darzustellen, mit dem ein Stichwort den semantischen Inhalt des verknüpften Bildes beschreibt. Zum Beispiel ist das erste Stichwort302(1) mit drei Bildern304(1) –304(3) verbunden, und der Verbindung mit dem ersten Bild304(1) ist eine Gewichtung w11 zugewiesen, der Verbindung mit dem zweiten Bild304(2) ist eine Gewichtung w12 zugewiesen, und der Verbindung mit dem dritten Bild304(3) ist eine Gewichtung w13 zugewiesen. - Es kann sein, dass Stichwort-Bild-Verbindungen zu Beginn nicht verfügbar sind. Es gibt jedoch mehrere Möglichkeiten, solche Verbindungen zu erhalten. Das erste Verfahren ist, Bilder einfach manuell zu kennzeichnen und der Stichwort-Bild-Verknüpfung eine starke Gewichtung zuzuweisen. Dieses Verfahren kann teuer und zeitaufwändig sein.
- Um die Kosten der manuellen Kennzeichnung zu reduzieren, kann ein automatischer Ansatz verwendet werden. Ein möglicher Ansatz ist, das Internet und seine zahllosen Nutzer wirkungsvoll einzusetzen, indem ein Crawler implementiert wird, der verschiedene Web-Sites besucht und Bilder herunterlädt. Die zu dem Bild zugehörigen Daten, wie beispielsweise der Dateiname und die ALT-Tag-Zeichenfolge innerhalb der IMAGE-Tags der HTML-Dateien werden als Stichwörter gespeichert und dem heruntergeladenen Bild zugeordnet. Außerdem können die Verknüpfungszeichenfolge und der Titel der Seite irgendwie mit dem Bild in Beziehung stehen und daher als mögliche Stichwörter verwendet werden. Diesen Stichwort-Bild-Verknüpfungen werden dann ihrer Relevanz entsprechend Gewichtungen zugewiesen. Diese Informationen werden heuristisch in absteigender Rangfolge der Relevanz aufgelistet: (1) Verknüpfungszeichenfolge, (2) ALT-Tag-Zeichenfolge; (3) Dateiname und (4) Titel der Seite.
- Ein weiterer Ansatz zum Integrieren von zusätzlichen Stichwörtern in das System besteht darin, die vom Benutzer eingegebenen Abfragen zu verwenden. Sobald der Benutzer für eine Gruppe von Bildern, die als für die Abfrage relevant gekennzeichnet sind, ein Feedback abgibt, werden die eingegebenen Stichwörter im System hinzugefügt und mit den Bildern in der Gruppe verknüpft. Da der Benutzer außerdem angibt, dass diese Bilder relevant sind, kann jeder der neu erstellten Verknüpfungen eine große Gewichtung zugewiesen werden. Dieser letztere Ansatz wird im Folgenden ausführlicher unter Bezugnahme auf
5 beschrieben. - Unter erneuter Bezugnahme auf
2 kann eine Situation eintreten, in der der Benutzer keine Textabfrage eingeben möchte. Stattdessen ist der Benutzer daran interessiert, ein Beispielbild auszuwählen und nach ähnlichen Bildern zu suchen. Um dieses Szenario aufzunehmen, gibt die Benutzerschnittstelle200 eine Gruppe von Bildkategorien an, aus denen der Benutzer auswählen kann. Nach dem Auswählen einer Kategorie gibt das Bildrecherchesystem eine Beispielgruppe von Bildern zurück, die zu der Kategorie gehören. - Das Bildrecherchesystem nimmt dieses Szenario mit einer vordefinierten Konzepthierarchie
204 im Abfrage-Handler150 auf. Die ausgewählte Kategorie wird an die Konzepthierarchie204 übergeben, die Bilder der ersten Ebene, die der Kategorie entsprechen, aus der Bilddatenbank142 identifiziert. Aus den Beispielbildern kann der Benutzer ein Bild als das Beispielbild identifizieren, Die Grundmerkmale des Beispielbilds werden dann verwendet, um eine inhaltsbasierte Bildrechercheoperation zu initiieren. - Die Merkmals- und Semantik-Abgleicheinrichtung
152 identifiziert Bilder in der Bilddatenbank142 , die mit der Benutzerabfrage verbundene Stichwörter aufweisen und/oder Grundmerkmale enthalten, die dem Beispielbild ähnlich sind. Die Merkmals- und Semantik-Abgleicheinrichtung152 enthält eine Bildmerkmals-Extraktionseinrichtung210 , die Grundmerkmale aus den Kandidatenbildern in der Bilddatenbank142 extrahiert. Solche Grundmerkmale umfassen Farbhistogramm. Struktur, Form und so weiter. Die Merkmals-Extraktionseinrichtung210 übergibt Merkmale an eine Bildmerkmals-Abgleicheinrichtung212 , um die Grundmerkmale der Kandidatenbilder mit den Grundmerkmalen des Beispielbilds abzugleichen, das vom Benutzer weitergeleitet wurde. Kandidatenbilder mit ähnlicheren Merkmalen wird ein höherer Rang zugewiesen. - Für Textabfragen weist die Merkmals- und Semantik-Abgleicheinrichtung
152 eine Semantik-Abgleicheinrichtung212 auf, um Bilder mit dazugehörigen Stichwörtern zu identifizieren, die mit den Stichwörtern aus der Abfrage übereinstimmen. Die Semantik-Abgleicheinrichtung214 verwendet das Semantik-Netzwerk, um diese Bilder mit Verknüpfungen zu den Such-Stichwörtern ausfindig zu machen. Kandidatenbilder mit höher gewichteten Verknüpfungen wird ein höherer Rang zugewiesen. - Ein Ranking-Modul
216 weist den Bildern Rangfolgen so zu, dass die Bilder mit dem höchsten Rang als die bevorzugte Ergebnisse-Gruppe an den Benutzer zurückgegeben werden. Das Ranking berücksichtigt die Gewichtungen, die den Stichwort-Bild-Verknüpfungen zugewiesen worden sind, sowie die Merkmalsnähe zwischen zwei Bildern. Die Gruppe der Bilder mit dem höchsten Rang wird zur Benutzerschnittstelle200 zurückgegeben und für den Benutzer zur Ansicht dargestellt. - Die Benutzerschnittstelle
200 gestattet es dem Benutzer, Bilder als mehr oder weniger relevant oder völlig irrelevant zu kennzeichnen. Die Feedback-Analysiereinrichtung154 überwacht dieses Benutzer-Feedback. Eine Relevanz-Feedback-Überwachung220 verfolgt das Feedback und führt sowohl semantikbasiertes Relevanz-Feedback als auch grundmerkmalsbasiertes Relevanz-Feedback integriert durch. Im Allgemeinen gleicht die Relevanz-Feedback-Überwachung220 die Gewichtungen ab, die den Stichwort-Bild-Verknüpfungen zugewiesen sind, um das semantikbasierte Recherchemodell zu schulen, und verwendet Abfragepunktverschiebungs- oder Neugewichtungs-Techniken, um das merkmalsbasierte Recherchemodell zu verbessern. Die Feedback-Analysiereinrichtung154 implementiert einen Maschinenlernalgorithmus222 (machine learning algorithm), um das Semantik-Netzwerk und/oder Bilder in der Datenbank gemäß dem Relevanz-Feedback abzugleichen. Eine besondere Implementierung eines integrierten Bezugssystems für semantikbasiertes Relevanz-Feedback und merkmalsbasiertes Relevanz-Feedback wird im Folgenden ausführlicher unter der Überschrift "Integriertes Bezugssystem für Relevanz-Feedback" beschrieben. - Das Bildrecherchesystem
140 bietet viele Vorteile gegenüber herkömmlichen Systemen. Erstens macht es Bilder unter Verwendung von Stichwörtern und Grundmerkmalen ausfindig, wobei eine Integration von stichwortbasierter Bildrecherche und inhaltsbasierter Bildrecherche vorgenommen wird. Zusätzlich werden sowohl semantikbasiertes Relevanz-Feedback als auch merkmalsbasiertes Relevanz-Feedback integriert. - Bildrechercheprozess
-
4 und5 zeigen einen Bildrechercheprozess, der von dem Bildrecherchesystem140 von2 implementiert wird. Der Prozess erfordert eine erste Phase zum Produzieren einer Bildergebnisgruppe aus einer Erstabfrage (4 ) und eine zweite Phase zum Ver feinern der Ergebnisgruppe und Lernen aus den Ergebnissen und dem Benutzer-Feedback (5 ). In einer Implementierung wird der Bildrechercheprozess als computerausführbare Anweisungen implementiert, die, wenn sie ausgeführt werden, die Operationen durchführen, die als Blöcke in4 und5 veranschaulicht sind. - In einer Implementierung setzt der Prozess voraus, dass eine grobe Konzepthierarchie der verfügbaren Bilder vorhanden ist, obwohl diese Voraussetzung nicht notwendig ist. Zum Beispiel können Bilder von Personen grob als "Leute" und spezifischer als "Männer" und "Frauen" kommentiert werden. Außerdem können die Grundmerkmale der Bilder in der Bilddatenbank
142 offline berechnet und mit den Bildern über eine Datenstruktur korreliert werden. Damit wird jede potenzielle Verlangsamung beseitigt, die durch Berechnen von Grundmerkmalen während des Bildrechercheprozesses verursacht wird. - Am Block
402 empfängt das Bildrecherchesystem140 eine Erstabfrage, die von einem Benutzer über die Benutzerschnittstelle200 weitergeleitet wird. Angenommen, der Benutzer gibt eine Suchabfrage ein, um Bilder von "Tigern" ausfindig zu machen. Der Benutzer kann irgendeine der folgenden Abfragen eingeben:
"Tiger"
"Tigerfotos"
"Fotos von Tigern suchen"
"Ich suche nach Bildern von Tigern." - Am Block
404 analysiert der Abfrage-Handler150 die Benutzerabfrage, um ein oder mehrere Stichwörter zu extrahieren. In unserem Beispiel kann das Stichwort "Tiger" aus jeder der Abfragen extrahiert werden. Andere Wörter, wie beispielsweise "Fotos" oder "Bilder" können ebenfalls extrahiert werden, aber zu Veranschaulichungszwecken konzentrieren wir uns auf das Stichwort "Tiger". - Am Block
406 durchsucht das Bildrecherchesystem140 die Bilddatenbank142 , um Bilder zu identifizieren, die mit dem Stichwort "Tiger" kommentiert sind. Das System kann gleichzeitig auch nach ähnlichen Wörtern suchen (z.B. Katze, Tier usw.). Wenn irgendwelche Bilder in der Datenbank eine Zuordnungsverknüpfung mit dem Stichwort aufwei sen, (d.h. die Abzweigung "Ja" vom Block408 ), werden solche Bilder in einen Ergebnisblock gestellt (Block410 ). Die Bilder in der Ergebnisgruppe werden dann der Reihenfolge nach entsprechend den Gewichtungen sortiert, die den Stichwort-Bild-Verknüpfungen in dem Semantik-Netzwerk zugewiesen worden sind (Block410 ). Wenn eine Gruppe von Bildern identifiziert worden ist, die mit dem Stichwort übereinstimmen, kann die Merkmals- und Semantik-Abgleicheinrichtung152 auch versuchen, andere Bilder mit ähnlichen Grundmerkmalen wie denjenigen in der Ergebnisgruppe zu suchen (Block414 ). Alle solchen Bilder werden dann der Ergebnisgruppe hinzugefügt. Die erweiterte Ergebnisgruppe wird dem Benutzer dann über die Benutzerschnittelle200 angezeigt (Block416 ). - Zu bemerken ist, dass, obwohl solche zusätzlichen Bilder anderen Bildern in der ursprünglichen Ergebnisgruppe ähnlich sein können, gewisse, über den Vergleich der Grundmerkmale entdeckte Bilder nichts mit dem Such-Stichwort zu tun haben können. Das heißt, die Operation
414 kann Bilder zurückgeben, die der Farbe oder Struktur eines anderen Bilds mit einem Tiger ähnlich sind, aber nirgendwo in dem Bild eine Spur von einem Tiger aufweisen. - Wenn mit der ersten Stichwort-Suche keine Bilder ausfindig gemacht werden können, (d.h. die Abzweigung "Nein" vom Block
408 ), kehrt das Bildrecherchesystem140 zum Block408 zurück und ruft Bilder in einer ersten Ebene der Konzepthierarchie ab (Block420 ). Diese Bilder können zufällig aus einer oder mehreren Kategorien in der Hierarchie ausgewählt werden. Die Bilder werden dem Benutzer angezeigt, um mögliche Beispielbilder vorzuschlagen (Block422 ). - Nach der Erstabfrage kann das Bildrecherchesystem
140 die Ergebnisse und das Benutzer-Feedback verwenden, um die Suche zu verfeinern und das Recherchemodell zu schulen. Der Verfeinerungs- und Lernprozess ist in5 veranschaulicht. - Am Block
502 überwacht die Feedback-Analysiereinrichtung154 das Benutzer-Feedback auf die Bilder in der Ergebnisgruppe. Der Benutzer kann eines oder mehrere Bilder als für die Suchabfrage relevant kennzeichnen oder anderweitig angeben. Dies kann zum Beispiel über einen Benutzerschnittstellen-Mechanismus erfolgen, in dem der Benutzer jedes Bild bewertet und (z.B. durch eine Mausklick-Operation) eine positive Mar kierung oder eine negative Markierung aktiviert, die mit dem Bild verbunden ist. Die positive Markierung gibt an, dass das Bild für die Suche relevanter ist, wogegen die negative Markierung angibt, dass das Bild weniger oder nicht relevant für die Suche ist. - Aus den Ergebnissen kann der Benutzer gewisse Bilder ersehen, die er als für die Suche relevant erachtet, und die Bilder auswählen, um eine gewünschte Gruppe zu produzieren (d.h. die Abzweigung "Ja" vom Block
504 ). In dieser Situation sind die Stichwörter in der ursprünglichen Abfrage mit den benutzergewählten Bildern verbunden, und der Zuordnungsverknüpfung wird eine große Gewichtung zugewiesen (Block506 ). Der Verknüpfung wird eine große Gewichtung zugewiesen, weil eine höhere Konfidenz besteht, dass die Suche akkurat ist, wenn Stichwörter höchster Ebene zum Identifizieren von Bildern verwendet werden. In einer Implementierung sind die Gewichtungen zusätzlich. Somit Kann einer ersten Verknüpfung ein Wert von "1" zugewiesen werden, um eine Verbindung anzugeben. Wenn das Stichwort anschließend über Suchen mit dem Bild verbunden wird, kann die Gewichtung um "1" inkrementiert werden, so dass die Gewichtung mit der Zeit an Stärke zunimmt. - Am Block
508 werden ähnliche Grundmerkmale, die mit diesen Bildern korreliert sind, umstrukturiert, um im Merkmalsraum näher beieinander zu liegen. Für anschließende Suchvorgänge versteht das System dann die Absicht des Benutzers in Bezug auf gewisse Bilder bei Vorgabe des gleichen Stichworts besser. - Wenn der Benutzer keine Gruppe von Bildern sieht, die für die Suchabfrage relevant sind, (d.h. die Abzweigung "Nein" vom Block
504 ), kann der Benutzer ein Beispielbild wählen und die Suche verfeinern, um andere Bilder ausfindig zu machen, die ähnliche Merkmale wie diejenigen des gewählten Bilds aufweisen (Block510 ). Wenn ein Beispielbild gewählt wird, (d.h. die Abzweigung "Ja" vom Block510 ), werden die Stichwörter in der ursprünglichen Abfrage mit den benutzergewählten Bildern verbunden, und der Zuordnungsverknüpfung wird eine kleine Gewichtung zugewiesen (Block512 ). Eine kleine Gewichtung wird der Verknüpfung zugewiesen, weil eine geringere Konfidenz besteht, dass Bildähnlichkeiten auf unterer Ebene ein ebenso akkurates Ergebnis produzieren wie das Ergebnis, das durch Stichwort-Übereinstimmungen produziert wird. - In Reaktion auf die Benutzerauswahl eines Beispielbilds zur Verfeinerung versucht der Abfrage-Handler
150 , andere repräsentative Bilder in der nächsten Ebene der Konzepthierarchie zu finden (Block514 ). Die Merkmals- und Semantik-Abgleicheinrichtung152 versucht ebenfalls, Bilder ausfindig zu machen, die ähnliche Grundmerkmale wie das vom Benutzer gewählte Bild aufweisen (Block516 ). Die sich daraus ergebende Gruppe von Bildern wird dem Benutzer dann angezeigt (Block518 ). - Der Block
520 berücksichtigt die Situation, in der weder die ursprüngliche Abfrage irgendwelche relevanten Bilder zurückgegeben noch der Benutzer ein Bild zum Verfeinern der Suche gefunden hat. In dieser Situation gibt das Bildrecherchesystem Bilder in der Datenbank einfach seitenweise aus, um dem Benutzer ein Durchsuchen und Auswählen der relevanten Bilder für ein Feedback in das System zu gestatten. - Benutzerschnittstelle
- Das Bildrecherchesystem
140 unterstützt drei Modi von Benutzer-Interaktion: stichwortbasierte Suche, Suche nach Beispielbildern und Durchsuchen der Bilddatenbank unter Verwendung einer vordefinierten Konzepthierarchie. Die Benutzerschnittstelle200 nimmt diese drei Modi auf. -
6 zeigt ein Beispiel einer Abfrage-Bildschirmanzeige600 , die von der Benutzerschnittstelle200 für die Eingabe einer Erstabfrage angezeigt wird. Die Bildschirmanzeige600 zeigt einen Texteingabebereich für natürliche Sprache602 an, der dem Benutzer das Eingeben von Stichwörtern oder Phrasen ermöglicht. Nach der Eingabe von einem oder mehreren Stichwörtern betätigt der Benutzer eine Schaltfläche604 , mit der die Suche nach relevanten Bildern initiiert wird. Alternativ kann der Benutzer eine vordefinierte Konzepthierarchie durchsuchen, indem er eine der im Abschnitt606 der Abfrage-Bildschirmanzeige600 aufgelisteten Kategorien wählt. Der Benutzer aktiviert die Kategorieverknüpfung, um eine Suche nach Bildern innerhalb der Kategorie zu initiieren. - Die Ergebnisse der stichwort- oder inhaltsbasierten Bildrecherche werden in einer nächsten Bildschirmanzeige dargestellt. Zu Diskussionszwecken wird angenommen, dass der Benutzer das Stichwort "Tiger" in den Texteingabebereich
602 der Abfrage-Bildschirmanzeige600 eingibt. -
7 zeigt eine Beispielergebnis-Bildschirmanzeige700 , die in Reaktion auf die Eingabe des Stichworts "Tiger" dargestellt wird. Abhängig von der Anzeigegröße werden ein oder mehrere Bilder in der Ergebnis-Bildschirmanzeige700 angezeigt. Hier werden sechs Bilder702(1) –702(6) gleichzeitig angezeigt. Wenn mehr Bilder vorhanden sind als gleichzeitig angezeigt werden können, werden die Navigationsschaltflächen "Weiter" und "Zurück"704 angezeigt, um ein Durchsuchen der anderen Bilder in der Ergebnisgruppe zu ermöglichen. - Die Benutzerschnittstelle ermöglicht dem Benutzer ein Feedback von Relevanzinformationen beim Durchsuchen der Bilder. Für jedes Bild gibt es mehrere Feedback-Optionen. Zum Beispiel weist jedes Bild eine "Ansicht"-Verknüpfung
706 auf, die es dem Benutzer ermöglicht, das Bild zur besseren Ansicht zu vergrößern. Die Aktivierung der Verknüpfung "Ähnliche"708 initiiert eine anschließende Abfrage von Bildern mit ähnlichem semantischen Inhalt und ähnlichen Grundmerkmalen wie das entsprechende Bild. Diese verfeinerte Suche wird in der nächsten Bildschirmanzeige dargestellt. - Des Weiteren weist jedes Bild sowohl positive als auch negative Relevanz-Markierungen auf, die vom Benutzer einzeln gewählt werden können. Die Relevanz-Markierungen ermöglichen es dem Benutzer, auf bildweiser Basis anzugeben, welche Bilder für die Suchabfrage relevanter sind und welche weniger relevant sind. Beispiele für solche Markierungen umfassen eine Kombination von "+" und "-' oder von "Daumen nach oben" und "Daumen nach unten" oder einen Wechsel der Hintergrundfarbe (z.B. bedeutet rot weniger relevant, blau bedeutet relevanter).
- In
7 sind die Bilder702(1) ,702(2) und702(5) mit einem blauen Hintergrund markiert, der eine positive Übereinstimmung angibt, dass diese Bilder tatsächlich Tiger darstellen. Die Bilder702(4) und702(6) haben einen roten Hintergrund, wodurch angegeben wird, dass sie mit der Abfrage "Tiger" nicht übereinstimmen. Bei genauem Hinsehen ist zu bemerken, dass diese Bilder Leoparden und keine Tiger enthalten. Das Bild702(3) weist schließlich einen gradienten Hintergrund (weder positiv noch negativ auf) und wird im Relevanz-Feedback nicht berücksichtigt. Dieses Bild stellt einen Wolf dar, der tatsächlich keine Relevanz zu Tigern hat. - Nach der Bereitstellung eines relevanten Feedbacks aktiviert der Benutzer die Schaltfläche "Feedback"
701 , um das Feedback zur Feedback-Analysiereinrichtung154 weiterzuleiten. Der Lernvorgang beginnt an diesem Punkt, um den Bildrechercheprozess für künftige Abfragen zu verbessern. - Integrierter Relevanz-Feedback-Rahmen
- In diesem Abschnitt wird eine beispielhafte Implementierung zum Integrieren von semantikbasiertem Relevanz-Feedback in grundmerkmalsbasiertes Relevanz-Feedback beschrieben. Semantikbasiertes Relevanz-Feedback kann relativ einfach durchgeführt werden im Vergleich zur grundmerkmalsbasierten Entsprechung. Zuerst wird eine beispielhafte Implementierung eines semantikbasierten Relevanz-Feedbacks beschrieben, gefolgt von der Art und Weise, wie dieses Feedback in das grundmerkmalsbasierte Relevanz-Feedback integriert werden kann.
- Für ein semantikbasiertes Relevanz-Feedback wird ein Abstimmungsschema verwendet, um die Gewichtungen wij zu aktualisieren, die mit jeder Verknüpfung in dem Semantik-Netzwerk
300 verbunden sind (3 ). Der Gewichtungs-Aktualisierungsprozess wird im Folgenden beschrieben. - Schritt 1:
- Alle Gewichtungen wij auf 1 initialisieren. Das bedeutet, jedem Stichwort wird anfänglich die gleiche Wichtigkeit verliehen.
- Schritt 2:
- Benutzerabfrage und die positiven und negativen Feedback-Beispiele sammeln.
- Schritt 3:
- Für jedes Stichwort in der eingegebenen Abfrage prüfen, ob irgendeines davon sich nicht in der Stichwort-Datenbank befindet. Ist dies der Fall, das bzw. die Stichwörter der Datenbank hinzufügen, ohne irgendwelchen Verknüpfungen zu erstellen.
- Schritt 4:
- Für jedes positive Beispiel prüfen, ob irgendein Abfrage-Stichwort nicht damit verknüpft ist. Ist dies der Fall, eine Verknüpfung mit der Gewichtung "1" aus jedem fehlenden Stichwort für dieses Bild erstellen. Für alle anderen Stich wörter, die bereits mit diesem Bild verknüpft sind, die Gewichtung um "1" inkrementieren.
- Schritt 5:
- Für jedes negative Beispiel prüfen, ob irgendein Abfrage-Stichwort damit verknüpft ist. Ist dies der Fall, die neue Gewichtung auf wij = wij/4 setzen. Wenn die Gewichtung wij auf irgendeiner Verknüpfung kleiner als 1 ist, diese Verknüpfung löschen.
- Es ist leicht erkennbar, dass das System mit zunehmender Eingabe von Abfragen sein Vokabular erweitern kann. Durch diesen Abstimmungsprozess werden Stichwörtern, die den tatsächlichen semantischen Inhalt jedes Bilds darstellen, des Weiteren größere Gewichtungen zugewiesen. Es sollte jedoch angemerkt werden, dass das oben genannte Gewichtungs-Aktualisierungsschema nur eines von vielen sinnvollen ist.
- Wie vorher angemerkt, stellt die Gewichtung wij, die mit jeder Stichwort-Bild-Verknüpfung verbunden ist, den Grad der Relevanz dar, in der dieses Stichwort den semantischen Inhalt des verknüpften Bilds beschreibt. Zu Recherchezwecken besteht eine andere Überlegung darin, gewisse Stichwörter zu vermeiden, die mit einer großen Anzahl von Bildern in der Datenbank verbunden sind. Die Stichwörter mit vielen Verknüpfungen zu vielen Bildern sollen benachteiligt werden. Daher lässt sich ein Relevanzfaktor rk der k-ten Stichwort-Verbindung wie folgt berechnen: wobei M die Gesamtanzahl von Bildern in der Datenbank ist, wk = wmn ist, wenn m = i und anderenfalls 0 ist, und di die Anzahl von Verknüpfungen ist, die das i-te Stichwort aufweist.
- Jetzt muss das oben genannte semantikbasierte Relevanz-Feedback in das merkmalsbasierte Relevanz-Feedback integriert werden. Aus früheren Forschungen ist bekannt, (siehe Rui, Y., Huang, T.S., "A Novel Relevance Feedback Technique in Image Retrieval", ACM Multimedia, 1999), dass der ideale Abfragevektor qi* für das Merkmal i der gewichtete Mittelwert der Schulungsbeispiele für das Merkmal i ist, angegeben durch: wobei Xi die NxKi Schulungsbeispiel-Matrix für das Merkmal i ist, das durch Stapeln der N Schulungsvektoren xni in eine Matrix erhalten wird, und wobei N ein Elementvektor π = [π1, ..., πN] ist, der den Grad der Relevanz für jedes der N eingegebenen Schulungsbeispiele ist. Die optimale Gewichtungsmatrix Wi* wird angegeben durch: wobei Ci die gewichtete Kovarianz-Matrix von Xi ist. Das heißt: Die kritischen Eingaben in das System sind xni und π. Zuerst gibt der Benutzer diese Daten in das System ein. Der erste Schritt kann jedoch vermieden werden, indem diese ersten Daten automatisch für das System bereitgestellt werden. Dies erfolgt, indem das Semantik-Netzwerk nach Stichwörtern durchsucht wird, die in der eingegebenen Abfrage erscheinen. Von diesen Stichwörtern aus folgt das System den Verknüpfungen, um die Gruppe von Schulungsbildern zu erhalten (doppelte Bilder werden entfernt). Die Vektoren xni können leicht aus der Schulungsgruppe berechnet werden. Der Grad des Relevanzvektors π wird wie folgt berechnet: wobei M die Anzahl der Abfrage-Stichwörter ist, die mit dem Schulungsbild i verknüpft sind, rjk der Relevanzfaktor des j-ten Stichworts ist, das mit dem Bild i verbunden ist, und α > 1 eine geeignet Konstante ist. Der Grad der Relevanz des i-ten Bilds erhöht sich ex ponenziell zu der Anzahl von damit verknüpften Stichwörtern. In der einen Implementierung ergab eine experimentell bestimmte Einstellung von α = 2,5 die besten Ergebnisse.
- Zum Integrieren des grundmerkmalsbasierten Feedbacks und der Ranking-Ergebnisse in das Semantik-Feedback und Ranking der höchsten Ebene wird eine vereinheitlichte metrische Abstandsfunktion Gj definiert, um die Relevanz jedes Bilds j innerhalb der Datenbank hinsichtlich des Semantik- und Grundmerkmal-Inhalts zu messen. Die Funktion G; wird unter Verwendung einer modifizierten Form der Rocchio-Formel (siehe Allgemeiner Stand der Technik) wie folgt modifiziert: wobei D; ein Abstands-Score ist, das durch der Grund-Feedback berechnet wird, NR und NN jeweils die Anzahl von positiven und negativen Feedbacks sind, I1 die Anzahl der eindeutigen Stichwörter ist, die das Bild j und alle Bilder mit positivem Feedback gemeinsam haben, I2 die Anzahl der eindeutigen Stichwörter ist, die das Bild j und alle Bilder mit negativem Feedback gemeinsam haben, A1 und A2 die Gesamtanzahl von eindeutigen Stichwörtern sind, die jeweils mit allen Bildern mit positivem und negativem Feedback verbunden sind, und schließlich Sij der euklidische Abstand der Grundmerkmale zwischen den Bildern i und j ist.
- Der erste Parameter α in der Rocchio-Formel wird durch den Logarithmus des Grads der Relevanz des j-ten Bilds ersetzt. Den zwei anderen Parametern β und γ kann der Einfachheit halber ein Wert von 1,0 zugewiesen werden. Es können jedoch auch andere Werte zugewiesen werden, um die Gewichtungsdifferenz zwischen den letzten zwei Ausdrücken hervorzuheben.
- Unter Verwendung des oben beschriebenen Verfahrens wird das kombinierte Relevanz-Feedback wie folgt bereitgestellt.
- Schritt 1:
- Die Benutzer-Abfragestichwörter sammeln.
- Schritt 2:
- Das obige Verfahren zum Berechnen von xni und π verwenden und diese in die Komponente für Grundmerkmals-Relevanz-Feedback eingeben, um die ersten Abfrageergebnisse zu erhalten.
- Schritt 3:
- Positive und negative Feedbacks vom Benutzer sammeln.
- Schritt 4:
- Gewichtung in dem Semantik-Netzwerk gemäß dem 5-Schritte-Prozess aktualisieren, der vorher in diesem Abschnitt beschrieben worden ist.
- Schritt 5:
- Gewichtungen der grundmerkmalsbasierten Komponente aktualisieren.
- Schritt 6:
- xni und π berechnen und in die Komponente für Grund-Feedback eingeben. Die Werte von xni können vorher in einem Vorverarbeitungsschritt berechnet werden.
- Schritt 7:
- Ranking-Score für jedes Bild unter Verwendung der Gleichung 7 berechnen und Ergebnisse sortieren.
- Schritt 8:
- Neue Ergebnisse anzeigen und zu Schritt 3 zurückkehren.
- Das Bildrecherchesystem weist insofern Verteile gegenüber Systemen des bisherigen Stands der Technik auf, als es aus dem Feedback des Benutzers sowohl in semantischer als auch merkmalsbasierter Weise lernt. Wenn keine Semantikinformationen verfügbar sind, kehrt der Prozess außerdem zum herkömmlichen merkmalsbasierten Relevanz-Feedback wie demjenigen zurück, das von Rui und Huang in dem oben zitierten "A Novel Relevance Feedback Technique in Image Retrieval" beschrieben worden ist.
- Registrierung des neuen Bilds
- Das Hinzufügen neuer Bilder in die Datenbank ist unter vielen Umständen ein sehr allgemeiner Vorgang. Bei Recherchesystemen, die nur auf Grund-Bildmerkmalen basieren, umfasst das Hinzufügen neuer Bilder einfach das Extrahieren verschiedener Merkmalsvektoren für die Gruppe neuer Bilder. Da das Recherchesystem jedoch Stichwörter zum Darstellen des semantischen Inhalts der Bilder verwendet, muss der Semantikinhalt der neuen Bilder entweder manuell oder automatisch gekennzeichnet werden. In diesem Abschnitt wird eine automatische Kennzeichnungstechnik beschrieben.
- Die automatische Kenzeichnungstechnik umfasst das Schätzen des semantischen Inhalts der neuen Bilder unter Verwendung von Grundmerkmalen. Folgendes ist ein beispielhafter Prozess:
- Schritt 1:
- Für jede Kategorie in der Datenbank die repräsentativen Merkmalsvektoren berechnen, indem der Schwerpunkt aller Bilder in dieser Kategorie bestimmt wird.
- Schritt 2:
- Für jede Kategorie in der Datenbank die Gruppe der repräsentativen Stichwörter suchen, indem die Stichwort-Verbindung jedes Bilds in dieser Kategorie geprüft wird. Die N Spitzen-Stichwörter mit der größten Gewichtung, deren kombinierte Gewichtung einen vorher bestimmten Schwellenwert τ nicht überschreitet, werden ausgewählt und der Liste der repräsentativen Stichwörter hinzugefügt. Der Wert des Schwellenwerts τ wird auf 40% der Gesamtgewichtung gesetzt.
- Schritt 3:
- Für jedes neue Bild seinen Grundmerkmalsvektor mit den repräsentativen Merkmalsvektoren jeder Kategorie vergleichen. Die Bilder werden mit der Gruppe von repräsentativen Stichwörtern aus der am meisten übereinstimmenden Kategorie mit einer ersten Gewichtung von 1,0 auf jedem Stichwort gekennzeichnet.
- Weil die Grundmerkmale nicht ausreichend sind, um die Semantik der Bilder darzustellen, ist es unvermeidlich, dass einige oder sogar alle der automatisch gekennzeichneten Stichwörter ungenau sind. Durch Benutzerabfragen und -Feedbacks bilden sich jedoch akkurate Stichwörter heraus, wogegen semantisch ungenaue Stichwörter langsam beseitigt werden.
- Ein weiteres Problem in Bezug auf die automatische Kennzeichnung von neuen Bildern ist die automatische Klassifizierung dieser Bilder in vordefinierte Kategorien. Diese Problem wird durch den folgenden Prozess behandelt:
- Schritt 1:
- Automatisch gekennzeichnete neue Bilder in eine spezielle "unbekannte" Kategorie setzen.
- Schritt 2:
- Jedes Bild in dieser Kategorie in regelmäßigen Intervallen prüfen, um zu sehen, ob irgendeine Stichwort-Verbindung eine größere Gewichtung als einen Schwellenwert ξ empfangen hat. Ist dies der Fall, die N Spitzen-Stichwörter extrahieren, deren kombinierte Gewichtung den Schwellenwert τ nicht überschreitet.
- Schritt 3:
- Für jedes Bild mit extrahierten Stichwörtern die extrahierten Stichwörter mit der Liste der repäsentativen Stichwörter aus jeder Kategorie vergleichen. Jedem Bild die am meisten übereinstimmende Kategorie zuweisen. Wenn keine der verfügbaren Kategorien zu einer sinnvollen Übereinstimmung führt, dieses Bild in der "unbekannten" Kategorie belassen.
- Die Stichwortlisten-Vergleichsfunktion, die in Schritt 3 des obigen Algorithmus verwendet wird, kann mehrere Formen annehmen. Eine ideale Funktion würde die semantische Beziehung von Stichwörtern in einer Liste zu denjenigen der anderen Liste berücksichtigen. Aus Gründen der Einfachheit prüft eine Schnellfunktion jedoch nur, ob Stichwörter aus der Liste der extrahierten Stichwörter in der Liste repräsentativer Stichwörter vorhanden sind.
Claims (31)
- Verfahren, das umfasst: Auslösen einer Suche nach Bildern auf Basis wenigstens eines Abfrage-Stichwortes in einer Abfrage; während der Suche Identifizieren erster Bilder (
304 ) mit damit verbundenen Stichwörtern (302 ), die dem wenigstens einen Abfrage-Stichwort entsprechen, und zweiter Bilder (304 ), die Grundmerkmale enthalten, die denen der ersten Bilder (304 ) gleichen; integriertes Durchführen eines Relevanz-Feedback auf Basis von Semantik und eines Relevanz-Feedback auf Basis von Grundmerkmalen; Aktualisieren von Gewichtungen, die den Grundmerkmalen zugewiesen sind, gemäß dem Benutzer-Feedback, gekennzeichnet durch Aktualisieren von Gewichtungen, die Verknüpfungen zwischen den ersten Bildern (304 ) und den damit verbundenen Abfrage-Stichwörtern (302 ) zugewiesen sind, gemäß dem Benutzer-Feedback; und Berechnen eines Ranking-Score unter Verwendung einer vereinheitlichten metrischen Abstandsfunktion (unified distance metric function), um die Relevanz jedes beliebigen Bildes innerhalb einer Bild-Datenbank hinsichtlich des Inhalts sowohl bezüglich der Semantik als auch der Grundmerkmale zu messen. - Verfahren nach Anspruch 1, das des Weiteren Zeigen der ersten und der zweiten Bilder (
304 ) umfasst. - Verfahren nach Anspruch 1, das des Weiteren umfasst: Zeigen (
416 ,422 ) der ersten und der zweiten Bilder (304 ) für einen Benutzer; und Überwachen von Feedback (503 ) von dem Benutzer dahingehend, welche der ersten und der zweiten Bilder (304 ) für die Abfrage relevant sind. - Verfahren nach Anspruch
1 , das des Weiteren umfasst: Zeigen (416 ,422 ) der ersten und der zweiten Bilder (304 ) für einen Benutzer; Empfangen von Feedback von dem Benutzer dahingehend, ob die ersten und die zweiten Bilder (304 ) für die Abfrage relevant sind; und auf Basis des Feedbacks von dem Benutzer Erkennen, welche Grundmerkmale zu relevanten Bildern führen und welche Stichwörter mit den relevanten Bildern identifiziert werden. - Verfahren nach Anspruch 1, das des Weiteren umfasst: Zeigen (
416 ,422 ) der ersten und zweiten Bilder (304 ) für einen Benutzer; Empfangen von Feedback von dem Benutzer dahingehend, welche der ersten und zweiten Bilder (304 ) für die Abfrage relevant sind; und Verfeinern der Suche, um zusätzliche Bilder zu identifizieren, die Grundmerkmale enthalten, die ähnlich denen der Bilder sind, die durch den Benutzer als für die Abfrage relevant angezeigt werden. - Verfahren nach Anspruch 1, das des Weiteren umfasst: Zeigen (
416 ,422 ) der ersten und zweiten Bilder für einen Benutzer; Empfangen von Feedback von dem Benutzer dahingehend, welche der ersten und zweiten Bilder (304 ) für die Abfrage relevant sind; und wenn der Benutzer wenigstens ein Bild als für die Abfrage relevant auswählt, Zuweisen (506 ) einer ersten Gewichtung zu einer Verbindung zwischen dem Abfrage-Stichwort und dem wenigstens einen Bild, das von dem Benutzer als relevant betrachtet wird, wobei die erste Gewichtung größer ist als die Gewichtungen, die einer zweiten Stichwort-Bild-Verbindung zugewiesen werden, die ausgebildet wird, indem das Stichwort in der Abfrage mit einem Beispielbild verbunden wird, das der Benutzer zur Verfeinerung der Suche identifiziert hat. - Verfahren nach Anspruch 6, das des Weiteren Gruppieren der Grundmerkmale der Bilder umfasst, die von dem Benutzer als relevant betrachtet werden.
- Verfahren nach Anspruch 1, das des Weiteren umfasst: Zeigen (
416 ,422 ) der ersten und zweiten Bilder für einen Benutzer; wenn der Benutzer wenigstens ein Bild als für die Abfrage relevant auswählt, Verbinden des Stichworts in der Abfrage mit dem ausgewählten Bild, um eine erste Stichwort-Bild-Verbindung auszubilden, und Zuweisen einer ersten Gewichtung zu der ersten Stichwort-Bild-Verbindung; Empfangen von Feedback von dem Benutzer, das ein Beispielbild als weniger relevant oder irrelevant für die Abfrage zur Verfeinerung der Suche identifiziert; Verbinden des Stichworts in der Abfrage mit dem Beispielbild, um eine zweite Stichwort-Bild-Verbindung auszubilden, und Zuweisen einer zweiten Gewichtung zu der zweiten Stichwort-Bild-Verbindung, wobei die erste Gewichtung vergleichsweise größer ist als das zweite Gewichtung; und wobei das Verfahren des Weiteren einen Schritt des Zuweisens des zweiten Gewichtes zu einer Verbindung zwischen dem Abfrage-Stichwort und dem Beispielbild umfasst. - Verfahren nach Anspruch 8, das des Weiteren Identifizieren zusätzlicher Bilder mit Grundmerkmalen umfasst, die denen des Beispielbildes gleichen.
- Verfahren nach Anspruch 1, das umfasst: Zulassen des Eingangs sowohl stichwortbasierter Abfragen als auch inhaltsbasier ter Abfragen; Finden von Bildern (
304 ) unter Verwendung sowohl von Bildrecherche auf Basis von Semantik als auch von Bildrecherche auf Basis von Grundmerkmalen; und Zeigen (412 ,422 ) der Bilder für einen Benutzer, so dass der Benutzer anzeigen kann, ob die Bilder relevant sind. - Verfahren nach Anspruch 1, wobei die vereinheitliche metrische Abstandsfunktion durch Gj gemäß definiert ist, wobei Dj ein Abstands-Score ist, das durch Grund-Feedback berechnet wird; NR und NN die Anzahl positiver bzw. negativer Feedbacks sind; I1 die Anzahl verschiedener Stichwörter ist, die Bild j und alle Bilder mit positivem Feedback gemeinsam haben; I2 die Anzahl verschiedener Stichwörter ist, die Bild j und alle Bilder mit negativem Feedback gemeinsam haben; π ein Grad eines Relevanz-Vektors ist; A1 und A2 die Gesamtzahl verschiedener Stichwörter sind, die mit allen Bildern mit positivem bzw. negativem Feedback verbunden sind; πi ein Grad des Relevanz-Vektors ist und Sjk der euklidische Abstand der Grundmerkmale zwischen den Bildern j und k ist.
- Verfahren nach Anspruch 1, das des Weiteren umfasst: Verbinden der Stichwörter (
302 ) mit den Bildern (304 ), um die Stichwort-Bild-Verknüpfungen auszubilden; Zuweisen der Gewichtungen zu den Stichwort-Bild-Verknüpfungen; Zeigen eines Ergebnis-Satzes von Bildern, der anhand einer Bild-Recherchesuche auf Basis einer Abfrage gewonnen wird; Empfangen des Feedback von einem Benutzer dahingehend, ob die Bilder in dem Ergebnis-Satz für die Abfrage relevant sind; und Integrieren von Feedback auf Basis von Grundmerkmalen und von Ranking-Ergebnissen in semantisches Feedback höherer Ebene und Ranking; wobei der Schritt des Aktualisierens Multiplizieren der Gewichte gemäß dem Benutzer-Feedback umfasst. - Verfahren nach Anspruch 12, wobei das Integrieren Definieren einer vereinheitlichten metrischen Abstandsfunktion zum Messen von Relevanz jedes beliebigen Bildes innerhalb einer Bild-Datenbank hinsichtlich des Inhaltes sowohl bezüglich Semantik als auch der Grundmerkmale umfasst.
- Verfahren nach Anspruch 12, wobei das Integrieren Definieren einer vereinheitlichten metrischen Abstandsfunktion Gj zum Messen von Relevanz jedes beliebigen Bildes innerhalb einer Bild-Datenbank hinsichtlich des Inhaltes bezüglich sowohl der Semantik als auch der Grundmerkmale umfasst, wobei Gj gemäß definiert ist und Dj ein Abstands-Score ist, das durch Grund-Feedback berechnet wird; NR und NN die Anzahl positiver bzw. negativer Feedbacks sind; I1 die Anzahl einzelner Stichwörter ist, die Bild j und alle Bilder mit positivem Feedback gemeinsam haben; I2 die Anzahl einzelner Stichwörter ist, die Bild j und alle Bilder mit negativem Feedback gemeinsam haben; π ein Grad eines Relevanz-Vektors ist; A1 und A2 die Gesamtzahl einzelner Stichwörter sind, die mit allen Bildern mit positivem bzw. negativem Feedback verbunden sind; πj ein Grad eines Relevanz-Vektors ist und Sjk der euklidische Abstand der Grundmerkmale zwischen den Bildern j und k ist.
- Verfahren nach einem der Ansprüche 12 bis 14, wobei: der Schritt des Empfangens von Feedback Überwachen von Feedback von einem Benutzer dahingehend umfasst, ob die Bilder in dem Ergebnis-Satz für die Abfrage relevant sind; und der Schritt des Modifizierens umfasst: wenn der Benutzer wenigstens ein Bild als für die Abfrage relevant auswählt, Verbinden des Stichworts in der Abfrage mit dem ausgewählten Bild, um eine erste Stichwort-Bild-Verbindung auszubilden, und Zuweisen einer ersten Gewichtung zu der ersten Stichwort-Bild-Verbindung; und wenn der Benutzer ein Beispiel-Bild zur Verfeinerung der Suche identifiziert, Verbinden des Stichworts in der Abfrage mit dem Beispielbild, um eine zweite Stichwort-Bild-Verbindung auszubilden, und Zuweisen einer zweiten Gewichtung zu der Stichwort-Bild-Verbindung; wobei die erste Gewichtung vergleichsweise größer ist als die zweite Gewichtung.
- Verfahren nach Anspruch 15, das des Weiteren Durchführen sowohl von inhaltsbasierter Bildrecherche also auch semantisch basierter Bildrecherche umfasst.
- Verfahren nach Anspruch 15 oder 16, das des Weiteren Zeigen des resultierenden Satzes von Bildern in einer Benutzerschnittstelle umfasst, wobei die Benutzerschnittstelle das Benutzer-Feedback ermöglicht, indem sie es dem Benutzer erlaubt, anzuzeigen, welche Bilder relevanter sind und welche Bilder weniger relevant sind.
- Computerlesbares Medium, das durch Computer ausführbare Befehle aufweist, die, wenn sie ausgeführt werden, einen Computer anweisen: Bilder (
304 ) unter Verwendung sowohl von Bildrecherche auf Basis von Semantik als auch Bildrecherche auf Basis von Grundmerkmalen zu finden; die Bilder (304 ) einem Benutzer zu zeigen, so dass der Benutzer anzeigen kann, ob die Bilder relevant sind; und Relevanz-Feedback auf Basis von Semantik und Relevanz-Feedback auf Basis von Grundmerkmalen integriert durchzuführen; Gewichtungen, die den Grundmerkmalen zugewiesen sind, gemäß dem Benutzer-Feedback zu aktualisieren; dadurch gekennzeichnet, dass die Befehle, wenn sie ausgeführt werden, den Computer anweisen, Gewichtungen, die Verknüpfungen zwischen den Bildern (304 ) und damit verbundenen Abfrage-Stichwörtern (302 ) zugewiesen sind, gemäß dem Benutzer-Feedback zu aktualisieren; und ein Ranking weiterer Bilder unter Verwendung einer vereinheitlichten metrischen Abstandsfunktion durchzuführen, um die Relevanz jedes beliebigen Bildes innerhalb einer Bild-Datenbank hinsichtlich des Inhaltes sowohl bezüglich der Semantik als auch der Grundmerkmale zu messen. - Computerlesbares Medium nach Anspruch 18, das des Weiteren durch Computer ausführbare Befehle aufweist, die, wenn sie auf einem Prozessor ausgeführt werden, das Verfahren nach einem der Ansprüche 1 bis 11 durchführen.
- Computerlesbares Medium nach Anspruch 18, das des Weiteren durch Computer ausführbare Befehle aufweist, die, wenn sie auf einem Prozessor ausgeführt werden, das Verfahren nach einem der Ansprüche 12 bis 17 durchführen.
- Bildrecherchesystem, das umfasst: einen Abfrage-Abwickler (
150 ), der so eingerichtet ist, dass er sowohl stichwortbasierte Abfragen mit einem oder mehreren Such-Stichwörtern als auch inhaltsbasierte Abfragen mit einem oder mehreren Grundmerkmalen eines Bildes abwickelt; eine Merkmal-und-Semantik-Abgleicheinrichtung (152 ), die so eingerichtet ist, dass sie 1. erste Bilder mit Stichwörtern, die den Such-Stichwörtern aus einer stichwortbasierten Abfrage entsprechen, und 2. zweite Bilder identifiziert, die Grundmerkmale aufweisen, die den Grundmerkmalen einer inhaltsbasierten Abfrage gleichen; und eine Feedback-Analysiereinrichtung (154 ), die so eingerichtet ist, dass sie das Bildrecherchesystem trainiert, indem sie ein Relevanz-Feedback auf Basis von Semantik und ein Relevanz-Feedback auf Basis von Grundmerkmalen integriert durchführt, wobei das Bildrecherchesystem des Weiteren so eingerichtet ist, dass es Gewichtungen, die den Grundmerkmalen zugewiesen sind, gemäß dem Benutzer-Feedback aktualisiert; dadurch gekennzeichnet, dass das Bildrecherchesystem so eingerichtet ist, dass es Gewichte, die Verknüpfungen zwischen den ersten Bildern (304 ) und den dazugehörigen Abfrage-Stichwörtern (302 ) zugewiesen sind, gemäß dem Benutzer-Feedback aktualisiert; wobei die Merkmal-und-Semantik-Abgleicheinrichtung (152 ) des Weiteren so eingerichtet ist, dass sie Ranking weiterer Bilder unter Verwendung einer vereinheitlichten metrischen Abstandsfunktion durchführt, um die Relevanz jedes beliebigen Bildes innerhalb einer Bild-Datenbank hinsichtlich des Inhaltes sowohl bezüglich der Semantik als auch der Grundmerkmale zu messen. - Bildrecherchesystem nach Anspruch 21, wobei der Abfrage-Abwickler (
150 ) einen Parser (202 ) für natürliche Sprache umfasst. - Bildrecherchesystem nach Anspruch 21, wobei der Abfrage-Abwickler (
150 ) umfasst: einen Parser (202 ), der so eingerichtet ist, dass er Parsing textbasierter Abfragen durchführt; und eine Konzept-Hierarchie (204 ), die so eingerichtet ist, dass sie verschiedene Kategorien von Bildern definiert. - Bildrecherchesystem nach einem der Ansprüche 21 bis 23, das des Weiteren eine Benutzerschnittstelle (
200 ) umfasst, die so eingerichtet ist, dass sie durch die Merkmal-und-Semantik-Abgleicheinrichtung (152 ) identifizierte erste und zweite Bilder zeigt. - Bildrecherchesystem nach einem der Ansprüche 21 bis 23, das des Weiteren umfasst: eine Benutzerschnittstelle (
200 ), die so eingerichtet ist, dass sie einem Benutzer die durch die Merkmal-und-Semantik-Abgleicheinrichtung identifizierten ersten und zweiten Bilder zeigt, wobei es die Benutzerschnittstelle dem Benutzer gestattet, anzuzeigen, ob die ersten und zweiten Bilder für die Abfrage relevant sind. - Bildrecherchesystem nach einem der Ansprüche 21 bis 23, das des Weiteren umfasst: eine Benutzerschnittstelle (
200 ), die so eingerichtet ist, dass sie einem Benutzer die durch die Merkmal-und-Semantik-Abgleicheinrichtung identifizierten ersten und zweiten Bilder zeigt, wobei es die Benutzerschnittstelle dem Benutzer gestattet, ein Beispielbild zu identifizieren; und wobei die Merkmal-und-Semantik-Abgleicheinrichtung (152 ) so konfiguriert ist, dass sie zusätzliche Bilder identifiziert, die Grundmerkmale enthalten, die denen des Beispielbildes gleichen. - Bildrecherchesystem nach einem der Ansprüche 21 bis 23, das des Weiteren umfasst: eine Benutzerschnittstelle (
200 ), die so eingerichtet ist, dass sie einem Benutzer die durch die Merkmal-und-Semantik-Abgleicheinrichtung identifizierten ersten und zweiten Bilder zeigt, wobei es die Benutzerschnittstelle dem Benutzer gestattet, zo identifizieren, welche Bilder für eine spezielle Suchabfrage relevant sind; und wobei die Feedback-Analysiereinrichtung (154 ) des Weiteren so eingerichtet ist, dass sie einer Verbindung zwischen den Such-Stichwörtern und den durch den Benutzer als relevant identifizierten Bildern eine erste Gewichtung zuweist, wobei, wenn der Benutzer ein Beispielbild zur Verfeinerung der Suche identifiziert, die Such-Stichwörter in der Abfrage mit dem Beispielbild verbunden werden und so zweite Stichwort-Bild-Verbindungen ausgebildet werden, und den zweiten Stichwort-Bild-Verbindungen eine zweite Gewichtung zugewiesen wird, wobei die erste Gewichtung vergleichsweise größer ist als die zweite Gewichtung. - Bildrecherchesystem nach Anspruch 27, wobei die Feedback-Analysiereinrichtung (
154 ) so eingerichtet ist, dass sie die Grundmerkmale der ersten und der zweiten Bilder, die durch den Benutzer als relevant identifiziert werden, gruppiert. - Bildrecherchesystem nach Anspruch 27 oder 28, wobei es die Benutzerschnittstelle dem Benutzer gestattet, das Beispielbild als weniger relevant oder irrelevant für die Abfrage zu identifizieren; und die Feedback-Analysiereinrichtung (
154 ) des Weiteren so eingerichtet ist, dass sie die zweite Gewichtung einer Verbindung zwischen den Such-Stichwörtern und dem Beispielbild zuweist. - Bildrecherchesystem nach einem der Anspruche
21 bis29 , wobei die Merkmal-und-Semantik-Abgleicheinrichtung (152 ) so eingerichtet ist, dass sie zusätzliche Bilder mit Grundmerkmalen identifiziert, die denen des Beispielbildes gleichen. - Bildrecherchesystem nach einem der Anspruche
21 bis30 , das des Weiteren eine Datenbankstruktur umfasst, die auf einem oder mehreren computerlesbaren Medien gespeichert ist, wobei sie umfasst: mehrere Bilddateien (304 ); mehrere Stichwörter (302 ); und ein semantisches Netzwerk (300 ), das so eingerichtet ist, dass es die Stichwörter mit den Bilddateien verbindet, wobei das semantische Netzwerk des Weiteren so eingerichtet ist, dass es einzelne Stichwort-Bild-Verknüpfungen definiert, die ein bestimmtes Stichwort mit einer bestimmten Bilddatei verbinden, wobei jede Stich wort-Bild-Verknüpfung eine Gewichtung hat, das anzeigt, wie relevant das bestimmte Stichwort für die bestimmte Bilddatei ist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US702292 | 2000-10-30 | ||
US09/702,292 US7099860B1 (en) | 2000-10-30 | 2000-10-30 | Image retrieval systems and methods with semantic and feature based relevance feedback |
Publications (2)
Publication Number | Publication Date |
---|---|
DE60129652D1 DE60129652D1 (de) | 2007-09-13 |
DE60129652T2 true DE60129652T2 (de) | 2007-11-22 |
Family
ID=24820616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE60129652T Expired - Lifetime DE60129652T2 (de) | 2000-10-30 | 2001-10-18 | Bildwiederauffindungssystem und Methode mit semantischer und eigenschaftenbasierter Relevanzrückmeldung |
Country Status (5)
Country | Link |
---|---|
US (3) | US7099860B1 (de) |
EP (1) | EP1202187B1 (de) |
JP (2) | JP4108961B2 (de) |
AT (1) | ATE368897T1 (de) |
DE (1) | DE60129652T2 (de) |
Families Citing this family (276)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0857633A (ja) * | 1994-08-23 | 1996-03-05 | Atsushi Yagihashi | 半田ゴテのコテ先 |
JPH0957436A (ja) * | 1995-08-21 | 1997-03-04 | Saitama Nippon Denki Kk | 自動機用半田ごてユニット |
SE520533C2 (sv) | 2001-03-13 | 2003-07-22 | Picsearch Ab | Metod, datorprogram och system för indexering av digitaliserade enheter |
KR100451649B1 (ko) * | 2001-03-26 | 2004-10-08 | 엘지전자 주식회사 | 이미지 검색방법과 장치 |
US20030016250A1 (en) * | 2001-04-02 | 2003-01-23 | Chang Edward Y. | Computer user interface for perception-based information retrieval |
US7769895B1 (en) * | 2001-08-17 | 2010-08-03 | Corda Technologies, Inc. | System and method for ensuring that a web browser displays the highest ranked image format possible for an image |
US7257568B2 (en) * | 2001-10-16 | 2007-08-14 | Sizatola, Llc | Process and system for matching products and markets |
US20040075743A1 (en) * | 2002-05-22 | 2004-04-22 | Sony Computer Entertainment America Inc. | System and method for digital image selection |
US20040064306A1 (en) * | 2002-09-30 | 2004-04-01 | Wolf Peter P. | Voice activated music playback system |
GB2395805A (en) | 2002-11-27 | 2004-06-02 | Sony Uk Ltd | Information retrieval |
JP4516957B2 (ja) | 2003-01-25 | 2010-08-04 | パーデュー リサーチ ファンデーション | 3次元オブジェクトについて検索を行なうための方法、システムおよびデータ構造 |
JP2004326491A (ja) * | 2003-04-25 | 2004-11-18 | Canon Inc | 画像処理方法 |
US7274834B2 (en) * | 2003-05-21 | 2007-09-25 | Konica Minolta Holdings, Inc. | Searching device, searching method and program |
CN100568231C (zh) * | 2003-06-23 | 2009-12-09 | 爱尔兰都柏林国立大学-都柏林大学 | 会话式推荐系统及其检索方法 |
US20050044076A1 (en) * | 2003-08-18 | 2005-02-24 | Yuh-Cherng Wu | Information retrieval from multiple sources |
KR100452085B1 (ko) * | 2004-01-14 | 2004-10-12 | 엔에이치엔(주) | 카테고리 별 키워드의 입력 순위를 제공하기 위한 검색서비스 시스템 및 그 방법 |
US7872669B2 (en) * | 2004-01-22 | 2011-01-18 | Massachusetts Institute Of Technology | Photo-based mobile deixis system and related techniques |
EP1562126A1 (de) * | 2004-02-03 | 2005-08-10 | Sap Ag | Datenbankverwaltungssystem und Verfahren zur Verwaltung einer Datenbank |
US7460737B2 (en) * | 2004-02-12 | 2008-12-02 | Hoshiko Llc | Method and apparatus for photograph finding |
US8775436B1 (en) * | 2004-03-19 | 2014-07-08 | Google Inc. | Image selection for news search |
US8041713B2 (en) * | 2004-03-31 | 2011-10-18 | Google Inc. | Systems and methods for analyzing boilerplate |
US7664734B2 (en) * | 2004-03-31 | 2010-02-16 | Google Inc. | Systems and methods for generating multiple implicit search queries |
US8631001B2 (en) * | 2004-03-31 | 2014-01-14 | Google Inc. | Systems and methods for weighting a search query result |
US7693825B2 (en) * | 2004-03-31 | 2010-04-06 | Google Inc. | Systems and methods for ranking implicit search results |
US7272601B1 (en) * | 2004-03-31 | 2007-09-18 | Google Inc. | Systems and methods for associating a keyword with a user interface area |
US20080040315A1 (en) * | 2004-03-31 | 2008-02-14 | Auerbach David B | Systems and methods for generating a user interface |
US7707142B1 (en) | 2004-03-31 | 2010-04-27 | Google Inc. | Methods and systems for performing an offline search |
US9009153B2 (en) | 2004-03-31 | 2015-04-14 | Google Inc. | Systems and methods for identifying a named entity |
US11409812B1 (en) | 2004-05-10 | 2022-08-09 | Google Llc | Method and system for mining image searches to associate images with concepts |
US7697791B1 (en) | 2004-05-10 | 2010-04-13 | Google Inc. | Method and system for providing targeted documents based on concepts automatically identified therein |
US7996753B1 (en) | 2004-05-10 | 2011-08-09 | Google Inc. | Method and system for automatically creating an image advertisement |
US8065611B1 (en) | 2004-06-30 | 2011-11-22 | Google Inc. | Method and system for mining image searches to associate images with concepts |
JP4093241B2 (ja) * | 2004-05-17 | 2008-06-04 | セイコーエプソン株式会社 | 書類作成支援装置、書類作成支援プログラムおよび記憶媒体、並びに書類作成支援方法 |
JP2005354134A (ja) * | 2004-06-08 | 2005-12-22 | Sony Corp | 画像管理方法および装置、記録媒体、並びにプログラム |
JP4478513B2 (ja) * | 2004-06-10 | 2010-06-09 | キヤノン株式会社 | デジタルカメラ、デジタルカメラの制御方法、プログラムおよびそれを格納した記録媒体 |
US20070244870A1 (en) * | 2004-06-23 | 2007-10-18 | Franc Telecom | Automatic Search for Similarities Between Images, Including a Human Intervention |
US7788274B1 (en) | 2004-06-30 | 2010-08-31 | Google Inc. | Systems and methods for category-based search |
US8131754B1 (en) | 2004-06-30 | 2012-03-06 | Google Inc. | Systems and methods for determining an article association measure |
US7533074B2 (en) | 2004-07-23 | 2009-05-12 | Sap Ag | Modifiable knowledge base in a mobile device |
US7383260B2 (en) * | 2004-08-03 | 2008-06-03 | International Business Machines Corporation | Method and apparatus for ontology-based classification of media content |
US20080119349A1 (en) * | 2004-12-22 | 2008-05-22 | Ngk Spark Plug Co., Ltd. | Sialon Insert and Cutting Tool Equipped Therewith |
US7877382B1 (en) * | 2004-12-31 | 2011-01-25 | Google, Inc. | System and methods for detecting images distracting to a user |
GB0502844D0 (en) | 2005-02-11 | 2005-03-16 | Univ Edinburgh | Storing digital content for access using a captured image |
JP4367355B2 (ja) * | 2005-02-24 | 2009-11-18 | セイコーエプソン株式会社 | 写真画像検索装置、写真画像検索方法、記録媒体、およびプログラム |
US8788593B1 (en) | 2005-02-25 | 2014-07-22 | Google Inc. | Systems and methods for downloading attachments |
US8554939B1 (en) | 2005-02-25 | 2013-10-08 | Google Inc. | Systems and methods for downloading and viewing images |
US7689617B2 (en) * | 2005-02-25 | 2010-03-30 | Prashant Parikh | Dynamic learning for navigation systems |
US9092458B1 (en) * | 2005-03-08 | 2015-07-28 | Irobot Corporation | System and method for managing search results including graphics |
US8694494B2 (en) * | 2005-03-25 | 2014-04-08 | Vistaprint Schweiz Gmbh | Selecting images using associated keywords |
US20060251975A1 (en) * | 2005-05-03 | 2006-11-09 | General Electric Company | System and method for retrieving radiographic images |
US7783135B2 (en) * | 2005-05-09 | 2010-08-24 | Like.Com | System and method for providing objectified image renderings using recognition information from images |
WO2006126141A1 (en) * | 2005-05-27 | 2006-11-30 | Koninklijke Philips Electronics N.V. | Images identification method and apparatus |
US7702681B2 (en) * | 2005-06-29 | 2010-04-20 | Microsoft Corporation | Query-by-image search and retrieval system |
US20090157869A1 (en) * | 2005-07-27 | 2009-06-18 | Cleary James D | Tracking Content in Communication Networks |
US7831918B2 (en) * | 2005-09-12 | 2010-11-09 | Microsoft Corporation | Content based user interface design |
US8275399B2 (en) | 2005-09-21 | 2012-09-25 | Buckyball Mobile Inc. | Dynamic context-data tag cloud |
JP5009577B2 (ja) * | 2005-09-30 | 2012-08-22 | 富士フイルム株式会社 | 画像検索装置および方法並びにプログラム |
US8775520B1 (en) | 2005-09-30 | 2014-07-08 | Google Inc. | Systems and methods for viewing non-HTML email attachments |
US8185591B1 (en) | 2005-09-30 | 2012-05-22 | Google Inc. | Systems and methods for viewing email attachments as thumbnails |
JP4413844B2 (ja) * | 2005-10-17 | 2010-02-10 | 富士通株式会社 | 画像表示制御装置 |
GB2432927A (en) * | 2005-10-25 | 2007-06-06 | Thomas Donnelly | Image search engine |
US8046673B2 (en) * | 2005-11-07 | 2011-10-25 | Business Objects Software Ltd. | Apparatus and method for facilitating trusted business intelligence through data context |
US8099383B2 (en) * | 2005-11-07 | 2012-01-17 | Business Objects Software Limited | Apparatus and method for defining report parts |
US7584411B1 (en) * | 2005-12-22 | 2009-09-01 | Adobe Systems, Inc. | Methods and apparatus to identify graphical elements |
US7725451B2 (en) * | 2006-01-23 | 2010-05-25 | Microsoft Corporation | Generating clusters of images for search results |
US7644373B2 (en) | 2006-01-23 | 2010-01-05 | Microsoft Corporation | User interface for viewing clusters of images |
US7836050B2 (en) * | 2006-01-25 | 2010-11-16 | Microsoft Corporation | Ranking content based on relevance and quality |
US7814040B1 (en) | 2006-01-31 | 2010-10-12 | The Research Foundation Of State University Of New York | System and method for image annotation and multi-modal image retrieval using probabilistic semantic models |
US7664739B2 (en) * | 2006-02-14 | 2010-02-16 | Microsoft Corporation | Object search ui and dragging object results |
US7970763B2 (en) * | 2006-02-21 | 2011-06-28 | Microsoft Corporation | Searching and indexing of photos based on ink annotations |
US9767184B2 (en) * | 2006-03-14 | 2017-09-19 | Robert D. Fish | Methods and apparatus for facilitating context searching |
JP2007257308A (ja) * | 2006-03-23 | 2007-10-04 | Canon Inc | 文書管理装置、文書管理システム、及びその制御方法、プログラム、記憶媒体 |
US7624130B2 (en) * | 2006-03-30 | 2009-11-24 | Microsoft Corporation | System and method for exploring a semantic file network |
US7634471B2 (en) * | 2006-03-30 | 2009-12-15 | Microsoft Corporation | Adaptive grouping in a file network |
JP2007281596A (ja) * | 2006-04-03 | 2007-10-25 | Canon Inc | 情報処理装置、情報処理システム、及びその制御方法、プログラム、記憶媒体 |
US7503007B2 (en) * | 2006-05-16 | 2009-03-10 | International Business Machines Corporation | Context enhanced messaging and collaboration system |
US8166418B2 (en) * | 2006-05-26 | 2012-04-24 | Zi Corporation Of Canada, Inc. | Device and method of conveying meaning |
KR100785928B1 (ko) * | 2006-07-04 | 2007-12-17 | 삼성전자주식회사 | 멀티모달 정보를 이용한 사진 검색 방법 및 사진 검색시스템 |
JP2009545076A (ja) * | 2006-07-24 | 2009-12-17 | チャチャ サーチ,インク. | 情報検索システムにおけるポッドキャスティング及びビデオトレーニングの為の方法、システム及びコンピュータ読込可能ストレージ |
US8271486B2 (en) * | 2006-07-28 | 2012-09-18 | Yahoo! Inc. | System and method for searching a bookmark and tag database for relevant bookmarks |
US7693906B1 (en) * | 2006-08-22 | 2010-04-06 | Qurio Holdings, Inc. | Methods, systems, and products for tagging files |
US20080059447A1 (en) * | 2006-08-24 | 2008-03-06 | Spock Networks, Inc. | System, method and computer program product for ranking profiles |
US7899837B2 (en) | 2006-09-29 | 2011-03-01 | Business Objects Software Ltd. | Apparatus and method for generating queries and reports |
US8126887B2 (en) | 2006-09-29 | 2012-02-28 | Business Objects Software Ltd. | Apparatus and method for searching reports |
US8204895B2 (en) * | 2006-09-29 | 2012-06-19 | Business Objects Software Ltd. | Apparatus and method for receiving a report |
US7707208B2 (en) * | 2006-10-10 | 2010-04-27 | Microsoft Corporation | Identifying sight for a location |
US7657504B2 (en) | 2006-10-10 | 2010-02-02 | Microsoft Corporation | User interface for displaying images of sights |
US7885482B2 (en) | 2006-10-26 | 2011-02-08 | Microsoft Corporation | Coverage-based image relevance ranking |
US7840076B2 (en) * | 2006-11-22 | 2010-11-23 | Intel Corporation | Methods and apparatus for retrieving images from a large collection of images |
US20080118160A1 (en) * | 2006-11-22 | 2008-05-22 | Nokia Corporation | System and method for browsing an image database |
JP5390393B2 (ja) * | 2006-11-29 | 2014-01-15 | コーニンクレッカ フィリップス エヌ ヴェ | 標本に基づくフィルタ |
WO2008069791A1 (en) * | 2006-12-04 | 2008-06-12 | General Instrument Corporation | Method and apparatus for improving image retrieval and search using latent semantic indexing |
GB2444535A (en) | 2006-12-06 | 2008-06-11 | Sony Uk Ltd | Generating textual metadata for an information item in a database from metadata associated with similar information items |
US7933452B2 (en) * | 2006-12-11 | 2011-04-26 | Florida Atlantic University | System and methods of image retrieval |
US20080208791A1 (en) * | 2007-02-27 | 2008-08-28 | Madirakshi Das | Retrieving images based on an example image |
JP2008217428A (ja) * | 2007-03-05 | 2008-09-18 | Fujitsu Ltd | 画像検索プログラム、方法及び装置 |
US20080222018A1 (en) * | 2007-03-08 | 2008-09-11 | Alejandro Backer | Financial instruments and methods for the housing market |
US20100131464A1 (en) * | 2007-03-21 | 2010-05-27 | Koninklijke Philips Electronics N.V. | Method and apparatus for enabling simultaneous reproduction of a first media item and a second media item |
US8117137B2 (en) * | 2007-04-19 | 2012-02-14 | Microsoft Corporation | Field-programmable gate array based accelerator system |
US8374880B2 (en) | 2007-04-24 | 2013-02-12 | Koninklijke Philips Electronics N.V. | System for automatically creating a lighting atmosphere based on a keyword input |
CN101295305B (zh) * | 2007-04-25 | 2012-10-31 | 富士通株式会社 | 图像检索装置 |
GB2449501A (en) * | 2007-05-25 | 2008-11-26 | Univ Sheffield | Searching method and system |
US7945576B2 (en) * | 2007-05-29 | 2011-05-17 | Microsoft Corporation | Location recognition using informative feature vocabulary trees |
US9251172B2 (en) * | 2007-06-01 | 2016-02-02 | Getty Images (Us), Inc. | Method and system for searching for digital assets |
WO2009009631A2 (en) * | 2007-07-10 | 2009-01-15 | Asim Roy | Systems and related methods of user-guided searching |
US8713001B2 (en) * | 2007-07-10 | 2014-04-29 | Asim Roy | Systems and related methods of user-guided searching |
US20090063522A1 (en) * | 2007-08-17 | 2009-03-05 | Oracle International Corporation | System and method for managing ontologies as service metadata assets in a metadata repository |
US20090099922A1 (en) * | 2007-08-23 | 2009-04-16 | Andrew Paradies | Advertising system and method |
US20090064008A1 (en) * | 2007-08-31 | 2009-03-05 | Matsushita Electric Industrial Co., Ltd. | User interaction for content based storage and retrieval |
DE102007043730B3 (de) * | 2007-09-13 | 2009-02-05 | Siemens Ag | Pre-Fetching von Dünn- und Dickschichtbilddaten |
US8457416B2 (en) * | 2007-09-13 | 2013-06-04 | Microsoft Corporation | Estimating word correlations from images |
US8571850B2 (en) * | 2007-09-13 | 2013-10-29 | Microsoft Corporation | Dual cross-media relevance model for image annotation |
US8572087B1 (en) * | 2007-10-17 | 2013-10-29 | Google Inc. | Content identification |
US8370353B2 (en) * | 2007-10-23 | 2013-02-05 | Imaginestics Llc | Component part search system with public and private communities |
KR100933269B1 (ko) * | 2007-11-13 | 2009-12-22 | 엔에이치엔(주) | 색상 키워드를 이용한 검색 방법 및 시스템 |
US20090144238A1 (en) * | 2007-12-04 | 2009-06-04 | Microsoft Corporation | Hide and seek game to elicit human input |
US8165406B2 (en) * | 2007-12-12 | 2012-04-24 | Microsoft Corp. | Interactive concept learning in image search |
US8848897B2 (en) * | 2007-12-20 | 2014-09-30 | Verizon Patent And Licensing Inc. | Automated multimedia call center agent |
US10438152B1 (en) * | 2008-01-25 | 2019-10-08 | Amazon Technologies, Inc. | Managing performance of human review of media data |
US20090240681A1 (en) * | 2008-03-20 | 2009-09-24 | Nadeem Saddiqi | Medical records network |
US8190604B2 (en) * | 2008-04-03 | 2012-05-29 | Microsoft Corporation | User intention modeling for interactive image retrieval |
KR100955181B1 (ko) * | 2008-04-15 | 2010-04-29 | 엔에이치엔(주) | 이미지 검색방법 및 검색 시스템 |
US7962468B2 (en) * | 2008-04-17 | 2011-06-14 | Yahoo! Inc. | System and method for providing image labeling game using CBIR |
US8504547B1 (en) * | 2008-04-23 | 2013-08-06 | Google Inc. | Customizing image search for user attributes |
US20090276722A1 (en) * | 2008-04-30 | 2009-11-05 | Jonathan Segel | Method and apparatus for dual mode content searching, selection, delivery, and playout |
US20090287655A1 (en) * | 2008-05-13 | 2009-11-19 | Bennett James D | Image search engine employing user suitability feedback |
US20090290802A1 (en) * | 2008-05-22 | 2009-11-26 | Microsoft Corporation | Concurrent multiple-instance learning for image categorization |
US20090297045A1 (en) * | 2008-05-29 | 2009-12-03 | Poetker Robert B | Evaluating subject interests from digital image records |
US20090313558A1 (en) * | 2008-06-11 | 2009-12-17 | Microsoft Corporation | Semantic Image Collection Visualization |
US20090313239A1 (en) * | 2008-06-16 | 2009-12-17 | Microsoft Corporation | Adaptive Visual Similarity for Text-Based Image Search Results Re-ranking |
US8463053B1 (en) | 2008-08-08 | 2013-06-11 | The Research Foundation Of State University Of New York | Enhanced max margin learning on multimodal data mining in a multimedia database |
JP5237724B2 (ja) * | 2008-08-19 | 2013-07-17 | オリンパスイメージング株式会社 | 画像検索システム |
US8489627B1 (en) * | 2008-08-28 | 2013-07-16 | Adobe Systems Incorporated | Combined semantic description and visual attribute search |
US8391618B1 (en) | 2008-09-19 | 2013-03-05 | Adobe Systems Incorporated | Semantic image classification and search |
US8171043B2 (en) * | 2008-10-24 | 2012-05-01 | Yahoo! Inc. | Methods for improving the diversity of image search results |
US8799259B2 (en) * | 2008-11-07 | 2014-08-05 | Core Wireless Licensing, S.a.r.l. | Method and apparatus for quality ranking of media |
US20100169178A1 (en) * | 2008-12-26 | 2010-07-01 | Microsoft Corporation | Advertising Method for Image Search |
DE102009007715B4 (de) * | 2009-02-05 | 2011-04-07 | Vodafone Holding Gmbh | Verfahren und System zum automatischen Auffinden von elektronischen Bildern in einer Datensammlung |
US8452794B2 (en) | 2009-02-11 | 2013-05-28 | Microsoft Corporation | Visual and textual query suggestion |
KR101368612B1 (ko) | 2009-02-24 | 2014-02-27 | 이베이 인크. | 다방향 비주얼 브라우징을 제공하는 시스템 및 방법 |
JP4706769B2 (ja) * | 2009-03-23 | 2011-06-22 | コニカミノルタビジネステクノロジーズ株式会社 | 画像処理装置 |
CN101510218A (zh) * | 2009-03-26 | 2009-08-19 | 阿里巴巴集团控股有限公司 | 实现图片搜索的方法及网站服务器 |
US9489403B2 (en) * | 2009-04-09 | 2016-11-08 | Nokia Technologies Oy | Method and apparatus for providing visual search engine results |
US8209330B1 (en) * | 2009-05-29 | 2012-06-26 | Google Inc. | Ordering image search results |
ES2377303B1 (es) * | 2009-06-05 | 2013-02-01 | Vodafone España S.A.U. | Método y sistema para recomendar fotografías. |
US8467631B2 (en) * | 2009-06-30 | 2013-06-18 | Red Hat Israel, Ltd. | Method and apparatus for identification of image uniqueness |
JP5676597B2 (ja) * | 2009-06-30 | 2015-02-25 | コーニンクレッカ フィリップス エヌ ヴェ | 内容に基づく画像検索についての関連性フィードバック |
US8515212B1 (en) | 2009-07-17 | 2013-08-20 | Google Inc. | Image relevance model |
US8478052B1 (en) | 2009-07-17 | 2013-07-02 | Google Inc. | Image classification |
KR101072691B1 (ko) * | 2009-07-23 | 2011-10-11 | 포항공과대학교 산학협력단 | 연관성 피드백을 이용한 데이터베이스 검색 방법 및 이를 수행하는 프로그램을 기록한 기록매체 |
US8352465B1 (en) | 2009-09-03 | 2013-01-08 | Google Inc. | Grouping of image search results |
US8171049B2 (en) | 2009-09-18 | 2012-05-01 | Xerox Corporation | System and method for information seeking in a multimedia collection |
US20110072047A1 (en) * | 2009-09-21 | 2011-03-24 | Microsoft Corporation | Interest Learning from an Image Collection for Advertising |
US8392430B2 (en) * | 2009-09-23 | 2013-03-05 | Microsoft Corp. | Concept-structured image search |
US10176245B2 (en) * | 2009-09-25 | 2019-01-08 | International Business Machines Corporation | Semantic query by example |
US8458010B1 (en) | 2009-10-13 | 2013-06-04 | Amazon Technologies, Inc. | Monitoring and enforcing price parity |
US8676803B1 (en) | 2009-11-04 | 2014-03-18 | Google Inc. | Clustering images |
AU2009357597B2 (en) * | 2009-12-30 | 2015-11-05 | Nokia Technologies Oy | Methods and apparatuses for facilitating content-based image retrieval |
US8903166B2 (en) * | 2010-01-20 | 2014-12-02 | Microsoft Corporation | Content-aware ranking for visual search |
US8185526B2 (en) * | 2010-01-21 | 2012-05-22 | Microsoft Corporation | Dynamic keyword suggestion and image-search re-ranking |
US8775424B2 (en) * | 2010-01-26 | 2014-07-08 | Xerox Corporation | System for creative image navigation and exploration |
US20110191336A1 (en) * | 2010-01-29 | 2011-08-04 | Microsoft Corporation | Contextual image search |
CN102193934B (zh) * | 2010-03-11 | 2013-05-29 | 株式会社理光 | 用于寻找图像集合中的代表性图像的系统和方法 |
US9589032B1 (en) * | 2010-03-25 | 2017-03-07 | A9.Com, Inc. | Updating content pages with suggested search terms and search results |
US20110246330A1 (en) * | 2010-04-01 | 2011-10-06 | Anup Tikku | System and method for searching content |
KR101116434B1 (ko) * | 2010-04-14 | 2012-03-07 | 엔에이치엔(주) | 이미지를 이용한 쿼리 제공 방법 및 시스템 |
WO2011136766A1 (en) * | 2010-04-28 | 2011-11-03 | Hewlett-Packard Development Company, L.P. | System and method for automatically providing a graphical layout based on an example graphic layout |
US8903798B2 (en) | 2010-05-28 | 2014-12-02 | Microsoft Corporation | Real-time annotation and enrichment of captured video |
US9703782B2 (en) | 2010-05-28 | 2017-07-11 | Microsoft Technology Licensing, Llc | Associating media with metadata of near-duplicates |
US8724910B1 (en) | 2010-08-31 | 2014-05-13 | Google Inc. | Selection of representative images |
US8538896B2 (en) * | 2010-08-31 | 2013-09-17 | Xerox Corporation | Retrieval systems and methods employing probabilistic cross-media relevance feedback |
US9002773B2 (en) | 2010-09-24 | 2015-04-07 | International Business Machines Corporation | Decision-support application and system for problem solving using a question-answering system |
US8990199B1 (en) * | 2010-09-30 | 2015-03-24 | Amazon Technologies, Inc. | Content search with category-aware visual similarity |
US8965116B2 (en) | 2010-10-19 | 2015-02-24 | 3M Innovative Properties Company | Computer-aided assignment of ratings to digital samples of a manufactured web product |
US9317533B2 (en) | 2010-11-02 | 2016-04-19 | Microsoft Technology Licensing, Inc. | Adaptive image retrieval database |
US20120117051A1 (en) * | 2010-11-05 | 2012-05-10 | Microsoft Corporation | Multi-modal approach to search query input |
US8875007B2 (en) * | 2010-11-08 | 2014-10-28 | Microsoft Corporation | Creating and modifying an image wiki page |
JP5321564B2 (ja) * | 2010-11-08 | 2013-10-23 | ソニー株式会社 | 画像管理方法および装置、記録媒体、並びにプログラム |
US8559682B2 (en) | 2010-11-09 | 2013-10-15 | Microsoft Corporation | Building a person profile database |
US8463045B2 (en) | 2010-11-10 | 2013-06-11 | Microsoft Corporation | Hierarchical sparse representation for image retrieval |
WO2012064522A1 (en) | 2010-11-12 | 2012-05-18 | 3M Innovative Properties Company | Rapid processing and detection of non-uniformities in web-based materials |
US9311374B2 (en) * | 2010-11-30 | 2016-04-12 | Red Hat, Inc. | Replicating data objects within a storage network based on resource attributes |
US10108500B2 (en) | 2010-11-30 | 2018-10-23 | Red Hat, Inc. | Replicating a group of data objects within a storage network |
US8447767B2 (en) | 2010-12-15 | 2013-05-21 | Xerox Corporation | System and method for multimedia information retrieval |
US9158775B1 (en) | 2010-12-18 | 2015-10-13 | Google Inc. | Scoring stream items in real time |
US20120173577A1 (en) * | 2010-12-30 | 2012-07-05 | Pelco Inc. | Searching recorded video |
FR2973134B1 (fr) * | 2011-03-23 | 2015-09-11 | Xilopix | Procede pour affiner les resultats d'une recherche dans une base de donnees |
US9043316B1 (en) * | 2011-03-28 | 2015-05-26 | Google Inc. | Visual content retrieval |
US20120254790A1 (en) * | 2011-03-31 | 2012-10-04 | Xerox Corporation | Direct, feature-based and multi-touch dynamic search and manipulation of image sets |
US8671025B2 (en) | 2011-04-21 | 2014-03-11 | Art.Com, Inc. | Method and system for image discovery via navigation of dimensions |
JP2012226698A (ja) * | 2011-04-22 | 2012-11-15 | Canon Inc | キーワード付与装置およびキーワード付与方法 |
US20120283574A1 (en) * | 2011-05-06 | 2012-11-08 | Park Sun Young | Diagnosis Support System Providing Guidance to a User by Automated Retrieval of Similar Cancer Images with User Feedback |
US8553981B2 (en) | 2011-05-17 | 2013-10-08 | Microsoft Corporation | Gesture-based visual search |
US9678992B2 (en) * | 2011-05-18 | 2017-06-13 | Microsoft Technology Licensing, Llc | Text to image translation |
US9082086B2 (en) | 2011-05-20 | 2015-07-14 | Microsoft Corporation | Adaptively learning a similarity model |
US8977629B2 (en) | 2011-05-24 | 2015-03-10 | Ebay Inc. | Image-based popularity prediction |
US9002831B1 (en) * | 2011-06-10 | 2015-04-07 | Google Inc. | Query image search |
KR101279576B1 (ko) * | 2011-06-15 | 2013-06-27 | 삼성테크윈 주식회사 | 디지털 영상 처리 장치에서의 파노라마 영상 생성 방법 |
US8670609B2 (en) * | 2011-07-22 | 2014-03-11 | Canon Kabushiki Kaisha | Systems and methods for evaluating images |
FR2980290A1 (fr) * | 2011-09-19 | 2013-03-22 | Alcatel Lucent | Systeme de reformulation de requete de moteur de recherche |
US11068532B2 (en) | 2011-09-21 | 2021-07-20 | Horsetooth Ventures, LLC | Interactive image display and selection system |
US9734167B2 (en) | 2011-09-21 | 2017-08-15 | Horsetooth Ventures, LLC | Interactive image display and selection system |
US9152700B2 (en) * | 2011-09-30 | 2015-10-06 | Google Inc. | Applying query based image relevance models |
US8589410B2 (en) | 2011-10-18 | 2013-11-19 | Microsoft Corporation | Visual search using multiple visual input modalities |
WO2013063740A1 (en) * | 2011-10-31 | 2013-05-10 | Google Inc. | Selecting images based on textual description |
US9201133B2 (en) | 2011-11-11 | 2015-12-01 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for signal-based localization |
GB2515398B (en) * | 2011-12-13 | 2018-02-14 | Ibm | Method,apparatus, and computer program for generating representative image and radiographic interpretation information for each case |
JP5902196B2 (ja) * | 2011-12-13 | 2016-04-13 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 医用画像を検索する方法、装置及びコンピュータプログラム |
CN102609458B (zh) * | 2012-01-12 | 2015-08-05 | 北京搜狗信息服务有限公司 | 一种图片推荐方法和装置 |
US9223776B2 (en) * | 2012-03-27 | 2015-12-29 | The Intellectual Group, Inc. | Multimodal natural language query system for processing and analyzing voice and proximity-based queries |
US9443314B1 (en) * | 2012-03-29 | 2016-09-13 | Google Inc. | Hierarchical conditional random field model for labeling and segmenting images |
US8855430B1 (en) | 2012-05-30 | 2014-10-07 | Google Inc. | Refining image annotations |
US9336302B1 (en) | 2012-07-20 | 2016-05-10 | Zuci Realty Llc | Insight and algorithmic clustering for automated synthesis |
US20140032583A1 (en) * | 2012-07-27 | 2014-01-30 | Sergey Ioffe | Multi-Resolution Exploration of Large Image Datasets |
US10268662B2 (en) * | 2012-09-10 | 2019-04-23 | The Boeing Company | Panoptic visualization of a document according to the structure thereof |
US9262442B2 (en) * | 2012-09-20 | 2016-02-16 | International Business Machines Corporation | Techniques for generating a representative image and radiographic interpretation information for a case |
EP2912576A4 (de) * | 2012-10-23 | 2016-07-20 | Leica Biosystems Imaging Inc | Systeme und verfahren für einen bildspeicher für die pathologie |
TWI480751B (zh) | 2012-12-27 | 2015-04-11 | Ind Tech Res Inst | 互動式關聯物件檢索方法與系統 |
US9183261B2 (en) | 2012-12-28 | 2015-11-10 | Shutterstock, Inc. | Lexicon based systems and methods for intelligent media search |
US9183215B2 (en) | 2012-12-29 | 2015-11-10 | Shutterstock, Inc. | Mosaic display systems and methods for intelligent media search |
US9176993B2 (en) | 2013-01-03 | 2015-11-03 | Board Of Regents, The University Of Texas System | Efficiently identifying images, videos, songs or documents most relevant to the user using binary search trees on attributes for guiding relevance feedback |
WO2014107193A1 (en) * | 2013-01-03 | 2014-07-10 | Board Of Regents, The University Of Texas System | Efficiently identifying images, videos, songs or documents most relevant to the user based on attribute feedback |
US9582517B2 (en) | 2013-03-14 | 2017-02-28 | Shutterstock, Inc. | Content based systems and methods for conducting spectrum color based image search |
KR101505673B1 (ko) * | 2013-03-22 | 2015-03-24 | (주)네오넷코리아 | 단어의 의미를 기반으로 하는 다국어 검색 시스템, 다국어 검색 방법 및 이를 이용한 이미지 검색 시스템 |
JP5552552B2 (ja) * | 2013-03-22 | 2014-07-16 | オリンパスイメージング株式会社 | 画像検索システム |
KR20140119217A (ko) * | 2013-03-27 | 2014-10-10 | (주)네오넷코리아 | 키워드 검색을 통해 사진 검색이 가능한 사진 공유 시스템 및 사진 공유 방법 |
US10282736B2 (en) * | 2013-05-21 | 2019-05-07 | Excalibur Ip, Llc | Dynamic modification of a parameter of an image based on user interest |
JP2014229282A (ja) * | 2013-05-27 | 2014-12-08 | キヤノン株式会社 | 画像検索装置および画像検索方法、システム、プログラムならびに記憶媒体 |
US9330110B2 (en) * | 2013-07-17 | 2016-05-03 | Xerox Corporation | Image search system and method for personalized photo applications using semantic networks |
US10319035B2 (en) | 2013-10-11 | 2019-06-11 | Ccc Information Services | Image capturing and automatic labeling system |
US10108617B2 (en) * | 2013-10-30 | 2018-10-23 | Texas Instruments Incorporated | Using audio cues to improve object retrieval in video |
CN104778170A (zh) * | 2014-01-09 | 2015-07-15 | 阿里巴巴集团控股有限公司 | 搜索展示商品图像的方法和装置 |
US10409822B2 (en) * | 2014-05-06 | 2019-09-10 | Shutterstock, Inc. | Systems and methods for presenting ranked search results |
US9965547B2 (en) * | 2014-05-09 | 2018-05-08 | Camelot Uk Bidco Limited | System and methods for automating trademark and service mark searches |
US10102277B2 (en) | 2014-05-15 | 2018-10-16 | Sentient Technologies (Barbados) Limited | Bayesian visual interactive search |
US10606883B2 (en) | 2014-05-15 | 2020-03-31 | Evolv Technology Solutions, Inc. | Selection of initial document collection for visual interactive search |
US20150331908A1 (en) | 2014-05-15 | 2015-11-19 | Genetic Finance (Barbados) Limited | Visual interactive search |
US9208173B1 (en) * | 2014-06-13 | 2015-12-08 | Globalfoundries Inc. | Techniques for medical image retreival |
CN104133917B (zh) * | 2014-08-15 | 2018-08-10 | 百度在线网络技术(北京)有限公司 | 照片的分类存储方法及装置 |
MX2017007253A (es) | 2014-12-05 | 2017-10-16 | Wal Mart Stores Inc | Sistema y metodo para generar identificadores unicos globales. |
CN104504110B (zh) * | 2014-12-30 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 搜索方法和装置 |
US10471348B2 (en) | 2015-07-24 | 2019-11-12 | Activision Publishing, Inc. | System and method for creating and sharing customized video game weapon configurations in multiplayer video games via one or more social networks |
JP2018536247A (ja) | 2015-09-28 | 2018-12-06 | ウォル−マート・ストアーズ・インコーポレイテッドWal−Mart Stores, Inc. | クラウドベースのセッション管理システム |
US10162865B2 (en) | 2015-10-08 | 2018-12-25 | Microsoft Technology Licensing, Llc | Generating image tags |
US9818032B2 (en) * | 2015-10-28 | 2017-11-14 | Intel Corporation | Automatic video summarization |
US10404778B2 (en) | 2015-12-09 | 2019-09-03 | Walmart Apollo, Llc | Session hand-off for mobile applications |
KR102362868B1 (ko) * | 2015-12-23 | 2022-02-15 | 삼성전자주식회사 | 사용자의 선호도에 따라 사용자에게 컨텐트들을 제공하는 방법 및 이를 위한 전자 장치 |
US20170262583A1 (en) * | 2016-03-11 | 2017-09-14 | International Business Machines Corporation | Image processing and text analysis to determine medical condition |
US10353947B2 (en) * | 2016-04-25 | 2019-07-16 | Adobe Inc. | Relevancy evaluation for image search results |
US10909459B2 (en) | 2016-06-09 | 2021-02-02 | Cognizant Technology Solutions U.S. Corporation | Content embedding using deep metric learning algorithms |
KR101806169B1 (ko) * | 2016-07-25 | 2017-12-07 | 오드컨셉 주식회사 | 쇼핑 정보를 제공하는 방법, 장치, 시스템 및 컴퓨터 프로그램 |
EP3497584A4 (de) | 2016-08-09 | 2020-03-11 | Ripcord, Inc. | Systeme und verfahren zum kontextuellen abrufen von elektronischen datensätzen |
KR101911604B1 (ko) * | 2016-10-21 | 2018-10-25 | 한국과학기술원 | 이벤트 검출을 위한 학습형 시스템 트레이닝장치 및 그 방법 |
US11205103B2 (en) | 2016-12-09 | 2021-12-21 | The Research Foundation for the State University | Semisupervised autoencoder for sentiment analysis |
US11176189B1 (en) * | 2016-12-29 | 2021-11-16 | Shutterstock, Inc. | Relevance feedback with faceted search interface |
JP6811645B2 (ja) * | 2017-02-28 | 2021-01-13 | 株式会社日立製作所 | 画像検索装置及び画像検索方法 |
US10216766B2 (en) * | 2017-03-20 | 2019-02-26 | Adobe Inc. | Large-scale image tagging using image-to-topic embedding |
TWI753034B (zh) * | 2017-03-31 | 2022-01-21 | 香港商阿里巴巴集團服務有限公司 | 特徵向量的產生、搜索方法、裝置及電子設備 |
US10956409B2 (en) * | 2017-05-10 | 2021-03-23 | International Business Machines Corporation | Relevance model for session search |
US10755144B2 (en) | 2017-09-05 | 2020-08-25 | Cognizant Technology Solutions U.S. Corporation | Automated and unsupervised generation of real-world training data |
US10755142B2 (en) | 2017-09-05 | 2020-08-25 | Cognizant Technology Solutions U.S. Corporation | Automated and unsupervised generation of real-world training data |
US11468051B1 (en) * | 2018-02-15 | 2022-10-11 | Shutterstock, Inc. | Composition aware image search refinement using relevance feedback |
US11372914B2 (en) * | 2018-03-26 | 2022-06-28 | Microsoft Technology Licensing, Llc | Image annotation |
US10523922B2 (en) | 2018-04-06 | 2019-12-31 | Zspace, Inc. | Identifying replacement 3D images for 2D images via ranking criteria |
US10523921B2 (en) | 2018-04-06 | 2019-12-31 | Zspace, Inc. | Replacing 2D images with 3D images |
US20190377983A1 (en) * | 2018-06-11 | 2019-12-12 | Microsoft Technology Licensing, Llc | System and Method for Determining and Suggesting Contextually-Related Slide(s) in Slide Suggestions |
US11068493B2 (en) * | 2018-11-07 | 2021-07-20 | Adobe Inc. | Guided content discovery in visual search |
CN111355543B (zh) * | 2018-12-20 | 2023-01-17 | 中兴通讯股份有限公司 | 一种场强预测方法 |
US11403327B2 (en) * | 2019-02-20 | 2022-08-02 | International Business Machines Corporation | Mixed initiative feature engineering |
US11562227B2 (en) * | 2019-03-13 | 2023-01-24 | Accenture Global Solutions Limited | Interactive assistant |
WO2020188924A1 (ja) * | 2019-03-20 | 2020-09-24 | 日本電気株式会社 | 情報処理装置、検索方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
US11403339B2 (en) * | 2020-05-04 | 2022-08-02 | Adobe Inc. | Techniques for identifying color profiles for textual queries |
JP2021196761A (ja) * | 2020-06-11 | 2021-12-27 | コニカミノルタ株式会社 | 画像処理装置、画像閲覧システム、画像処理プログラム、画像処理方法 |
US20230326225A1 (en) * | 2022-04-08 | 2023-10-12 | Thomson Reuters Enterprise Centre Gmbh | System and method for machine learning document partitioning |
WO2024058834A1 (en) * | 2022-09-16 | 2024-03-21 | Regulatory Education Events, LLC dba Supplement Advisory Group | Systems and methods for compliance, keyword finder, and training tool |
US11934452B1 (en) | 2022-10-31 | 2024-03-19 | Adobe Inc. | Text-based color palette searches utilizing text-to-color models |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5020019A (en) | 1989-05-29 | 1991-05-28 | Ricoh Company, Ltd. | Document retrieval system |
JPH03122770A (ja) * | 1989-10-05 | 1991-05-24 | Ricoh Co Ltd | キーワード連想文書検索方法 |
US5579471A (en) * | 1992-11-09 | 1996-11-26 | International Business Machines Corporation | Image query system and method |
JPH0721198A (ja) | 1993-06-17 | 1995-01-24 | Nippon Telegr & Teleph Corp <Ntt> | 画像検索方法 |
JP3185505B2 (ja) | 1993-12-24 | 2001-07-11 | 株式会社日立製作所 | 会議録作成支援装置 |
US5855015A (en) | 1995-03-20 | 1998-12-29 | Interval Research Corporation | System and method for retrieval of hyperlinked information resources |
US5594809A (en) * | 1995-04-28 | 1997-01-14 | Xerox Corporation | Automatic training of character templates using a text line image, a text line transcription and a line image source model |
US5721938A (en) * | 1995-06-07 | 1998-02-24 | Stuckey; Barbara K. | Method and device for parsing and analyzing natural language sentences and text |
US6076088A (en) | 1996-02-09 | 2000-06-13 | Paik; Woojin | Information extraction system and method using concept relation concept (CRC) triples |
US5983237A (en) * | 1996-03-29 | 1999-11-09 | Virage, Inc. | Visual dictionary |
US6314420B1 (en) | 1996-04-04 | 2001-11-06 | Lycos, Inc. | Collaborative/adaptive search engine |
US5870754A (en) * | 1996-04-25 | 1999-02-09 | Philips Electronics North America Corporation | Video retrieval of MPEG compressed sequences using DC and motion signatures |
US5832499A (en) * | 1996-07-10 | 1998-11-03 | Survivors Of The Shoah Visual History Foundation | Digital library system |
US5899999A (en) * | 1996-10-16 | 1999-05-04 | Microsoft Corporation | Iterative convolution filter particularly suited for use in an image classification and retrieval system |
US6041335A (en) | 1997-02-10 | 2000-03-21 | Merritt; Charles R. | Method of annotating a primary image with an image and for transmitting the annotated primary image |
JPH1139325A (ja) | 1997-07-22 | 1999-02-12 | Matsushita Electric Ind Co Ltd | 類似検索方法及び類似検索システム |
US5995978A (en) * | 1997-09-24 | 1999-11-30 | Ricoh Company, Ltd. | Navigation system for document image database |
US6301586B1 (en) | 1997-10-06 | 2001-10-09 | Canon Kabushiki Kaisha | System for managing multimedia objects |
US6324545B1 (en) | 1997-10-15 | 2001-11-27 | Colordesk Ltd. | Personalized photo album |
US6105055A (en) | 1998-03-13 | 2000-08-15 | Siemens Corporate Research, Inc. | Method and apparatus for asynchronous multimedia collaboration |
US6504571B1 (en) * | 1998-05-18 | 2003-01-07 | International Business Machines Corporation | System and methods for querying digital image archives using recorded parameters |
JP3615657B2 (ja) * | 1998-05-27 | 2005-02-02 | 株式会社日立製作所 | 映像検索方法及び装置ならびに記録媒体 |
US6285995B1 (en) * | 1998-06-22 | 2001-09-04 | U.S. Philips Corporation | Image retrieval system using a query image |
JP2000048041A (ja) | 1998-07-29 | 2000-02-18 | Matsushita Electric Ind Co Ltd | データ検索システム及びこれに用いる装置 |
US6369811B1 (en) * | 1998-09-09 | 2002-04-09 | Ricoh Company Limited | Automatic adaptive document help for paper documents |
JP4065470B2 (ja) | 1998-09-30 | 2008-03-26 | キヤノン株式会社 | 情報検索装置及びその制御方法 |
US20030069873A1 (en) * | 1998-11-18 | 2003-04-10 | Kevin L. Fox | Multiple engine information retrieval and visualization system |
CA2326813A1 (en) | 1999-01-29 | 2000-08-03 | Lg Electronics Inc. | Method of searching or browsing multimedia data and data structure |
US7016916B1 (en) | 1999-02-01 | 2006-03-21 | Lg Electronics Inc. | Method of searching multimedia data |
US6557042B1 (en) * | 1999-03-19 | 2003-04-29 | Microsoft Corporation | Multimedia summary generation employing user feedback |
US6408293B1 (en) | 1999-06-09 | 2002-06-18 | International Business Machines Corporation | Interactive framework for understanding user's perception of multimedia data |
KR100346262B1 (ko) | 1999-08-27 | 2002-07-26 | 엘지전자주식회사 | 멀티미디어 데이타의 키워드 자가 생성방법 |
JP3921015B2 (ja) | 1999-09-24 | 2007-05-30 | 富士通株式会社 | 画像解析装置及び方法並びにプログラム記録媒体 |
KR100346264B1 (ko) | 1999-12-02 | 2002-07-26 | 엘지전자주식회사 | 멀티미디어 특징소 정보의 갱신방법과 멀티미디어 특징소 정보 생성방법 |
WO2002008948A2 (en) | 2000-07-24 | 2002-01-31 | Vivcom, Inc. | System and method for indexing, searching, identifying, and editing portions of electronic multimedia files |
US6728706B2 (en) * | 2001-03-23 | 2004-04-27 | International Business Machines Corporation | Searching products catalogs |
US6748398B2 (en) | 2001-03-30 | 2004-06-08 | Microsoft Corporation | Relevance maximizing, iteration minimizing, relevance-feedback, content-based image retrieval (CBIR) |
US6901411B2 (en) | 2002-02-11 | 2005-05-31 | Microsoft Corporation | Statistical bigram correlation model for image retrieval |
US7043474B2 (en) | 2002-04-15 | 2006-05-09 | International Business Machines Corporation | System and method for measuring image similarity based on semantic meaning |
-
2000
- 2000-10-30 US US09/702,292 patent/US7099860B1/en not_active Expired - Fee Related
-
2001
- 2001-10-18 DE DE60129652T patent/DE60129652T2/de not_active Expired - Lifetime
- 2001-10-18 AT AT01124882T patent/ATE368897T1/de not_active IP Right Cessation
- 2001-10-18 EP EP01124882A patent/EP1202187B1/de not_active Expired - Lifetime
- 2001-10-30 JP JP2001333273A patent/JP4108961B2/ja not_active Expired - Lifetime
-
2004
- 2004-07-28 US US10/900,574 patent/US7529732B2/en not_active Expired - Lifetime
- 2004-10-20 US US10/969,308 patent/US7499916B2/en not_active Expired - Fee Related
-
2007
- 2007-06-27 JP JP2007169625A patent/JP4210311B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
EP1202187A3 (de) | 2003-11-26 |
ATE368897T1 (de) | 2007-08-15 |
EP1202187B1 (de) | 2007-08-01 |
US7499916B2 (en) | 2009-03-03 |
US7099860B1 (en) | 2006-08-29 |
US20040267740A1 (en) | 2004-12-30 |
US20050055344A1 (en) | 2005-03-10 |
JP2007242065A (ja) | 2007-09-20 |
JP2002197117A (ja) | 2002-07-12 |
DE60129652D1 (de) | 2007-09-13 |
JP4210311B2 (ja) | 2009-01-14 |
US7529732B2 (en) | 2009-05-05 |
EP1202187A2 (de) | 2002-05-02 |
JP4108961B2 (ja) | 2008-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60129652T2 (de) | Bildwiederauffindungssystem und Methode mit semantischer und eigenschaftenbasierter Relevanzrückmeldung | |
DE69835753T2 (de) | Verfahren und gerät zur graphischen abbildung von webteilen | |
DE60213409T2 (de) | Erstellung von strukturierten daten aus unformatiertem text | |
EP1311989B1 (de) | Verfahren zur automatischen recherche | |
DE69727421T2 (de) | Hypertext-Dokumentwiederauffindungssystem zum Wiederauffinden zusammengehöriger Hypertextdokumente | |
DE602004003361T2 (de) | System und verfahren zur erzeugung von verfeinerungskategorien für eine gruppe von suchergebnissen | |
DE60208604T2 (de) | Automatisches Verfahren zur Erzeugung von Image-buttons | |
DE19842688B4 (de) | Verfahren zum Filtern von Daten, die von einem Datenanbieter stammen | |
DE69837199T2 (de) | Verfahren, vorrichtung und datenträger zur intelligenten auswahl von suchwörtern in einer tastaturlosen umgebung | |
DE3901485C2 (de) | Verfahren und Vorrichtung zur Durchführung des Verfahrens zur Wiedergewinnung von Dokumenten | |
DE69923650T2 (de) | System für mehrsprachige Informationswiederauffindung | |
DE60226232T2 (de) | Inhaltsverwaltungssystem | |
DE69834386T2 (de) | Textverarbeitungsverfahren und rückholsystem und verfahren | |
DE69931256T2 (de) | Verfahren und system zum zurückholen einer elektronischen akte | |
DE69933187T2 (de) | Dokumentensuchverfahren und Dienst | |
US20050004949A1 (en) | Information processing | |
DE19751570A1 (de) | Dokumentmanagementsystem, Verfahren zum Betreiben eines solchen Systems und Digitalkopierer | |
DE10317234A1 (de) | Systeme und Verfahren für eine verbesserte Genauigkeit von einem extrahierten digitalen Inhalt | |
DE10135445A1 (de) | Integriertes Verfahren für das Schaffen einer aktualisierbaren Netzabfrage | |
DE69719641T2 (de) | Ein Verfahren, um Informationen auf Bildschirmgeräten in verschiedenen Grössen zu präsentieren | |
DE102006040208A1 (de) | Patentbezogenes Suchverfahren und -system | |
DE102004057862A1 (de) | Verfahren zum Abrufen von Bilddokumenten unter Verwendung von Hierarchie- und Kontexttechniken | |
WO2009030248A1 (de) | Erfassung von zusammenhängen zwischen informationen repräsentierenden daten | |
EP1170678B1 (de) | Verfahren und Vorrichtung zur automatischen Suche relevanter Bilddatensätze | |
DE102018104438A1 (de) | Computerimplementiertes Verfahren zum Beschaffen von Informationen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |