DE69735488T2 - Verfahren und vorrichtung zum ausrichten von bildern - Google Patents

Verfahren und vorrichtung zum ausrichten von bildern Download PDF

Info

Publication number
DE69735488T2
DE69735488T2 DE69735488T DE69735488T DE69735488T2 DE 69735488 T2 DE69735488 T2 DE 69735488T2 DE 69735488 T DE69735488 T DE 69735488T DE 69735488 T DE69735488 T DE 69735488T DE 69735488 T2 DE69735488 T2 DE 69735488T2
Authority
DE
Germany
Prior art keywords
image
images
source images
mosaic
alignment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69735488T
Other languages
English (en)
Other versions
DE69735488D1 (de
Inventor
Shmuel Peleg
randy Joshua Piscataway HERMAN
F. Douglas Hopewell DIXON
Jeffrey Peter Princeton BURT
Russell James Hopewell BERGEN
A. Gary Neshanic Station GENDEL
Rakesh Monmouth Junction KUMAR
Singh Harpreet Plainsboro SAWHNEY
Henry Michael Morrisville BRILL
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sarnoff Corp
Original Assignee
Sarnoff Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sarnoff Corp filed Critical Sarnoff Corp
Publication of DE69735488D1 publication Critical patent/DE69735488D1/de
Application granted granted Critical
Publication of DE69735488T2 publication Critical patent/DE69735488T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/23Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Ausrichten einer Mehrzahl von Quellbildern.
  • Video- und Digitalkameras liefern Bilder mit relativ niedriger Auflösung, die ein beschränktes Bild- bzw. Sichtfeld abdecken. Sowohl das Problem der niedrigen Auflösung als auch das Problem des eingeschränkten Sichtfelds können durch Kombinieren mehrerer Bilder zu einem erweiterten Bildmosaik überwunden werden.
  • Mosaike können aus einem Satz von Quellbildern erzeugt werden, indem man die Bilder miteinander ausrichtet, um die Kamerabewegung auszugleichen, und sie unter Erzeugung eines Bildes, das ein viel größeres Sichtfeld abdeckt als jedes einzelne Bild, verschmilzt. Die zwei Hauptschritte bei der Konstruktion eines Mosaiks sind das Ausrichten der Bilder und das Verschmelzen der ausgerichteten Bilder zu einem großen, übergangslosen Mosaikbild.
  • Derzeit existieren verschiedene Verfahren und Systeme für die Bildausrichtung und für die Konstruktion von Mosaiken. Mosaikbilder werden seit vielen Jahren aus Bildern von Satelliten und Raumsonden erzeugt. In diesen Fällen sind die für die Bildausrichtung geeigneten Parameter aus sorgfältigen Messungen der Blickrichtung der Kamera bekannt, oder sie werden durch manuelles Bestimmen korrespondierender Punkte in einander überlappenden Bildbereichen bestimmt. Ein Verfahren, das die sorgfältige Messung der Kameraorientierung anwendet, ist beispielsweise in Plenoptic Modeling: An Image-Based Rendering System", L. McMillan und G. Bishop, SIGGRAPH 95, beschrieben. Bei diesem Ansatz werden die Bilder von einer Kamera aufgenommen, deren Bewegung eine hochgradig gesteuerte, vollständige Drehbewegung um das optische Zentrum ist. Das konstruierte Mosaik wird erzeugt, indem die Bilder auf eine zylindrische Abbildungsebene projiziert werden, wobei die Verzerrungen, die mit der Mosaikbildung eines kompletten Kreises auf einem einzelnen planaren bzw. ebenen Bild assoziiert sein können, vermieden werden.
  • Allgemeiner gesagt wird eine Ausrichtung mit Bildverarbeitungstechniken erzielt, die Bildtransformationen (z.B. Translation, Rotation, Skalierung), die Muster in sich überlappenden Bildern in präzise Ausrichtung bringen, automatisch finden bzw. erkennen. Auf der Bildverarbeitung basierende Verfahren sind in der US-Patentanmeldung Nr. 08/339,491, "Mosaic Based Image Processing System", eingereicht am 14. November 1994, veröffentlicht als US-A-6,393,163, und in der US-Patentanmeldung Nr. 08/493,632, "Method and System for Image Combination Using a Parallax-Based Technique", eingereicht am 22. Juni 1995, veröffentlicht als US-A-5,963,664, beschrieben.
  • Die europäische Patentanmeldung Nr. WO 96/15508 betrifft ein mosaikbasiertes Bildverarbeitungssystem, das ein Mosaik aus einer Sequenz von Bildern bildet, indem jedes Bild in der Sequenz von Bildern zunächst durch grobes Ausrichten des Bildes mit dem vorherigen Bild in einem Mosaik von Bildern und anschließendes präzises Ausrichten des Bildes mit dem Mosaik verarbeitet wird. Die Bilder werden in einem iterativen Verfahren unter Verwendung eines Flußfeldes grob ausgerichtet.
  • Es existieren nun Systeme, die unter Verwendung dieser Bildverarbeitungsverfahren Mosaike aus Video in Echtzeit konstruieren können. Ein solches System ist in "Video Mosaic Displays", P. Burt, M. Hansen und P. Anandan, SPIE Band 2736: Enhanced and Synthetic Vision 1996, S. 119–127, 1996, und in "Real-time scene stabilization and mosaic construction", M. Hansen, P. Anandan, K. Dana, G. van der Wal und P. Burg, ARPA Image Understanding Workshop, Nov. 1994, S. 457–465, beschrieben.
  • Es gibt derzeit viele Bildverarbeitungsverfahren zum Verschmelzen von Quellbildern zu einem übergangslosen Mosaik. Die einfachsten Verfahren überlagern digital ein Bild über ein anderes, indem sie ein gewichtetes Mittel der beiden Bilder in der Zone, in der sie sich überlappen, berechnen. Dieses Verfahren kann dazu führen, daß Doppelbilder erscheinen, wenn die Quellbilder nicht über den gesamten Überlappungsbereich hinweg präzise ausgerichtet werden, oder daß sich ein sichtbarer, aber unscharfer Übergang bildet, wenn die beiden Bilder sich in solchen Charakteristika wie der mittleren Intensität, der Farbe, der Schärfe oder dem Kontrast signifikant unterscheiden. Ein allgemeineres Verfahren zum Verschmelzen von Bildern unter Vermeidung von Übergängen verwendet eine Bildpyramide, um die Bilder bei vielen verschiedenen Skalierungen gleichzeitig zu verschmelzen. Dieses Verfahren wurde zuerst beschrieben in "A Multiresolution Spline With Applications to Image Mosaics", P.J. Burt und E.H. Adelson, ACM Transactions of Graphics, Band 2, Nr. 4, Oktober 1983, S. 217–236 (Burt I).
  • Es ist auch wünschenswert, daß der Schritt der Verschmelzung bei der Konstruktion von Mosaiken jegliche Löcher in dem Mosaik auffüllt, die dadurch zurückbleiben, daß irgendwelche Quellbilder einen Teil des gewünschten Mosaikbereichs nicht abdecken. Ein Verfahren zum Auffüllen von Löchern in dem Mosaik, das das Pyramidensystem für die Bildverarbeitung mit Mehrfachauflösung verwendet, wurde in Moment Images, polynominal fit filters, and the problem of surface Interpolation, P.J. Burt, ICPR 1988, S. 300–302, beschrieben.
  • Bei der Mosaikkonstruktion verwendete Bildverschmelzungsverfahren können auch eine Bildverbesserung bereitstellen. Beispielsweise kann das "Rauschen" von Bildern in Überlappungszonen reduziert werden, indem man die Quellbilder einfach mittelt. Wenn einige Quellbilder von besserer Qualität sind als andere oder wenn sie Aspekte von Objekten in der Szene klarer zeigen als andere, können nicht-lineare Verfahren verwendet werden, um aus jedem Quellbild die "beste" Information auszuwählen. Ein solches Verfahren ist in Enhanced Image capture through fusion, P.J. Burt und R. Kolczynski, ICCV 1993, S. 242–246, beschrieben.
  • Mehrere Quellbilder können in einer solchen Weise kombiniert werden, daß die Bildauflösung in den Überlappungsbereichen verbessert wird. Ein solches Verfahren ist in "Motion Analysis for Image Enhancement: Resolution, Occlusion, and Transparency", M. Irani und S. Peleg, Vision Communications and Image Representation, Band 4, Dezember 1993, S. 324–335, beschrieben.
  • Diesen bestehenden Verfahren für die Mosaikkonstruktion fehlt es an mehreren Fähigkeiten, die von der vorliegenden Erfindung bereitgestellt werden:
    • • Eine effektive Bildverarbeitungsvorrichtung zum gleichzeitigen Ausrichten aller Quellbilder unter Erhalt einer besten Gesamtausrichtung für die Verwendung in dem Mosaik. Derzeitige Verfahren richten nur Paare von Bildern aus. Beim Konstruieren eines Mosaiks aus einer Sequenz von Videoeinzelbildern wird beispielsweise jedes Bild mit dem vorherigen Bild in der Sequenz ausgerichtet. Es können sich kleine Ausrichtungsfehler anhäufen bzw. akkumulieren, die dann zu einer schlechten Ausrichtung einander überlappender Einzelbilder, die zu weit auseinanderliegenden Zeitpunkten in der Sequenz erscheinen, führen.
    • • Eine effektive Bildverarbeitungsvorrichtung zum Verschmelzen aller Quellbilder unter Erhalt eines besten Gesamtmosaiks. Derzeitige Verfahren verschmelzen immer nur zwei Bilder gleichzeitig. Ein aus vielen Bildern bestehendes Mosaik wird durch Verschmelzen in ein neues Bild zu einem Zeitpunkt konstruiert. Dieses Verfahren liefert möglicherweise nicht die beste Gesamtqualität, und es kann einen unnötigen Berechnungsaufwand bzw. unnötige Berechnungen mit sich bringen.
    • • Eine effektive Bildverarbeitungsvorrichtung zum Verschmelzen von Quellbildern, die sich in ihren Belichtungscharakteristika drastisch unterscheiden.
    • • Eine effektive Bildverarbeitungsvorrichtung für das automatische Auswählen von Bereichen aus einander überlappenden Bereichen jedes Quellbildes, die in das Mosaik aufgenommen werden sollen.
    • • Eine Systemimplementierung, die für kommerzielle und für Verbraucheranwendungen praktisch ist.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein Aspekt der vorliegenden Erfindung stellt ein computerimplementiertes Verfahren zum Ausrichten einer Mehrzahl von Quellbildern bereit, welches die folgenden Schritte aufweist:
    • a) Analysieren der Quellbilder, um einige der auszurichtenden Quellbilder auszuwählen und eine anfängliche bzw. erste Ausrichtung der Quellbilder zu erzeugen, und
    • b) Analysieren der ausgewählten Quellbilder, um ein Koordinatensystem für ein Bildmosaik zu erstellen, dadurch gekennzeichnet, daß der Schritt des Analysierens der Quellbilder, um einige der auszurichtenden Quellbilder auszuwählen, Bilder auf Basis der Überlappung zwischen den Quellbildern auswählt, um ein kombiniertes Maß bzw. Ausmaß an Übereinstimmung für alle Paare von sich überlappenden Quellbildern zu optimieren, und der Schritt des Analysierens der ausgewählten Quellbilder, um ein Koordinatensystem für das Bildmosaik zu erstellen, ein anfängliches bzw. erstes Bild aus den ausgewählten Bildern auswählt, um das Koordinatensystem festzulegen bzw. zu definieren, wobei das Verfahren weiterhin den folgenden Schritt beinhaltet:
    • c) Ausrichten einiger der ausgewählten Quellbilder mit dem Koordinatensystem durch Auswählen nachfolgender Bilder auf Basis zumindest entweder (i) des Bildinhalts, (ii) der Bildqualität oder (iii) der Überlappung zwischen den Quellbildern, und Ausrichten jedes der nachfolgenden ausgewählten Bilder mit dem durch das anfängliche Bild definierten Koordinatensystem.
  • Ein weiterer Aspekt der vorliegenden Erfindung stellt ein System zum Ausrichten einer Mehrzahl von Quellbildern bereit, welches folgendes aufweist:
    • a) Auswahlmittel für das Analysieren der Quellbilder, um einige der auszurichtenden Quellbilder auszuwählen und eine anfängliche Ausrichtung der Quellbilder zu bilden, dadurch gekennzeichnet, daß: die Auswahlmittel Mittel für das Anpassen der ausgewählten Bilder, um ein kombiniertes Ausmaß an Übereinstimmung für alle Paare von sich überlappenden Quellbildern zu optimieren, beinhalten und die Vorrichtung weiterhin beinhaltet:
    • b) Referenzmittel, welche Mittel für das Analysieren der ausgewählten Quellbilder, um ein anfängliches Bild aus den ausgewählten Quellbildern auszuwählen, um ein Koordinatensystem für das Bildmosaik zu erstellen, beinhalten und
    • c) Ausrichtungsmittel, welche mindestens entweder (i) Mittel für das Analysieren der Quellbilder auf Basis des Bildinhalts, (ii) Mittel für das Analysieren der Quellbilder auf Basis der Bildqualität oder (iii) Mittel für das Analysieren der Quellbilder auf Basis der Überlappung zwischen den Quellbildern oder Mittel für das Ausrichten einiger der ausgewählten Quellbilder mit dem durch das anfängliche Bild definierten Koordinatensystem beinhalten.
  • Ein weiterer Aspekt der vorliegenden Erfindung stellt ein computerlesbares Medium bereit, welches ein Programm enthält, das einen Computer dazu bringt, eine Mehrzahl von Quellbildern auszurichten, wobei das Programm den Computer dazu bringt, die folgenden Schritte auszuführen:
    • a) Analysieren der Quellbilder, um einige der auszurichtenden Quellbilder auszuwählen und eine anfängliche Ausrichtung der Quellbilder zu bilden, und
    • b) Analysieren der ausgewählten Quellbilder, um ein Koordinatensystem für ein Bildmosaik zu erstellen, dadurch gekennzeichnet, daß der Schritt des Analysierens der Quellbilder, um einige der auszurichtenden Quellbilder auszuwählen, Bilder auf Basis der Überlappung zwischen den Quellbildern, um ein kombiniertes Ausmaß an Übereinstimmung für alle Paare sich überlappender Quellbilder zu optimieren, auswählt und der Schritt des Analysierens der ausgewählten Quellbilder, um ein Koordinatensystem für das Bildmosaik zu erstellen, ein anfängliches Bild unter den ausgewählten Bildern auswählt, um das Koordinatensystem zu definieren bzw. festzulegen, wobei das Verfahren weiterhin den folgenden Schritt beinhaltet:
    • c) Ausrichten einiger der ausgewählten Quellbilder mit dem Koordinatensystem durch Auswählen eines anfänglichen Bildes, Auswählen nachfolgender Bilder auf Basis zumindest entweder (i) des Bildinhalts, (ii) der Bildqualität oder (iii) der Überlappung zwischen den Quellbildern, und Ausrichten jedes der nachfolgenden ausgewählten Bilder mit dem durch das anfängliche Bild definierten Koordinatensystem.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die Lehren der vorliegenden Erfindung werden bei Betrachtung der nachfolgenden ausführlichen Beschreibung zusammen mit den begleitenden Zeichnungen leicht verstanden, in denen:
  • 1 ein Blockdiagramm des Gesamtsystems ist und
  • 2 ein Flußdiagramm ist, das die Auswahl von Quellbildern veranschaulicht.
  • 3A ist ein Flußdiagramm, das ein beispielhaftes Verfahren der Bildausrichtung zeigt.
  • 3B ist ein Bilddiagramm, das zum Beschreiben des in 3A gezeigten Ausrichtungsprozesses nützlich ist.
  • 4 ist ein Bilddiagramm, das die Bereichsauswahl darstellt.
  • 5 ist ein Flußdiagramm, das einen Bildverbesserungsprozeß zeigt.
  • 6 ist ein Datenstrukturdiagramm, das einen Pyramidenaufbau für das Verschmelzen von Bildern zeigt.
  • 7 ist ein Blockdiagramm, das zum Beschreiben einer beispielhaften Ausführungsform der Erfindung nützlich ist.
  • 8 ist ein Flußdiagramm eines Verfahrens bzw. Prozesses, das bzw. der zur Verwendung als der in 7 gezeigte Front-End- bzw. Vorausrichtungsprozeß geeignet ist.
  • 9 ist ein Diagramm, das Bilder zeigt, die von dem System verarbeitet werden, das zum Beschreiben des in 7 gezeigten Vorausrichtungsprozesses nützlich ist.
  • Die 10A und 10B sind Bilddiagramme, die zum Beschreiben der Betriebsweise des in 7 gezeigten Vorausrichtungsprozesses nützlich sind.
  • 11A ist ein Flußdiagramm eines Prozesses, der zur Verwendung als der in 8 gezeigte Korrelationsprozeß geeignet ist.
  • 11B ist ein Diagramm eines Akzeptanzbereichs, das zur Beschreibung der Betriebsweise des in 11A gezeigten Korrelationsprozesses nützlich ist.
  • 12 ist ein Diagramm von Bildern, das zum Beschreiben des in 7 gezeigten Back-End- bzw. Nachausrichtungsprozesses nützlich ist.
  • 13 ist ein Diagramm von Bildern, das zum Beschreiben eines ersten alternativen Nachausrichtungsprozesses, der zur Verwendung in dem in 7 gezeigten Blockdiagramm geeignet ist, nützlich ist.
  • 14 ist ein Diagramm von Bildern, das zum Beschreiben eines zweiten nachgeschalteten Ausrichtungsprozesses nützlich ist, der zur Verwendung in dem in 7 gezeigten Blockdiagramm geeignet ist.
  • 15 ist ein Flußdiagramm eines Verfahrens, das zur Verwendung als der in 7 gezeigte Nachausrichtungsprozeß geeignet ist.
  • Um das Verständnis zu erleichtern wurden identische Bezugszahlen verwendet, wo dies möglich war, um identische Elemente zu bezeichnen, die allen Figuren gemeinsam sind.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die Erfindung betrifft eine Vorrichtung und ein Verfahren zum Konstruieren eines Mosaikbildes aus mehreren Quellbildern. Die Erfindung liefert ein praktisches Verfahren zum Erhalten von Bildem hoher Qualität mit einem großen Sichtfeld aus Quellbildern mit vergleichsweise geringerer Qualität. Diese Fähigkeit kann in der "Fotografie" im Verbraucher- und im professionellen Bereich, wo eine Videokamera oder eine digitale Fotokamera verwendet wird, um Drucke bzw. Abzüge von fotografischer Qualität bereitzustellen, wichtige Verwendungsmöglichkeiten haben. Sie kann auch verwendet werden, um die Qualität eines gezeigten Videos zu verbessern.
  • Ein allgemeines Verfahren zum Bilden eines Mosaikbildes ist in 1 gezeigt. Dieser beinhaltet eine Bildquelle 101, eine Abfolge von Verarbeitungsschritten 102 bis 106 und eine Mosaikausgabevorrichtung 108. Weiterhin ist eine optionale Vorrichtung 109 vorgesehen, damit sich ein menschlicher Benutzer die Ergebnisse der Verarbeitungsschritte ansehen und ausgewählte Schritte interaktiv steuern kann.
  • Bildquelle 101
  • Der Vorgang der Mosaikkonstruktion beginnt mit einem Satz von Quellbildern. Diese können "Live"-Bilder von verschiedenen Arten von Bildsensoren, wie Videokameras, digitalen Fotokameras und Bildscannern, Bilder von verschiedenen Speichermedien, wie z.B. Videoband (VCR), Computerdateien, künstlich erzeugte Bilder, wie Computergrafiken, und verarbeitete Bilder, wie zuvor konstruierte Mosaike, beinhalten.
  • Der Mosaikkonstruktionsprozeß beinhaltet fünf grundlegende Schritte:
  • Schritt 1: Quellbildauswahl 102
  • Ein Satz von Bildern, die zu einem Mosaik kombiniert werden sollen, wird aus den verfügbaren Quellbildern ausgewählt. Dies kann manuell oder automatisch erfolgen. Der Auswahlprozeß findet bzw. entdeckt einen Satz von Bildem von guter Qualität, die den beabsichtigten Bereich und den Inhalt des Mosaiks abdecken.
  • Wenn das Mosaik aus einer Abfolge bzw. Sequenz von Videoeinzelbildern aufgebaut wird, kann dieser Auswahlschritt das Anzeigen des ersten und des letzten Einzelbildes, die in das Mosaik aufgenommen werden sollen, beinhalten. Diese Auswahl zeigt an, daß alle dazwischen liegenden Einzelbilder verwendet werden sollen. Das Start- und das Stopeinzelbild können durch Steuern der Videokamera selbst, wie z.B. durch Starten oder Stoppen systematischer Schwingbewegungen der Kamera, Bewegungen, die dann von dem System automatisch erfaßt werden, ausgewählt werden.
  • Wenn ein Mosaik aus einer Sammlung von Schnappschüssen aufgebaut werden soll, kann es für den Benutzer wünschenswert sein, jedes Quellbild interaktiv auszuwählen.
  • Die Quellenauswahl kann auch das Herausschneiden von Teilbildern aus größeren Bildern beinhalten. Beispielsweise kann ein Benutzer ein Bild einer Person aus einem Quellbild so ausschneiden, daß es an einem neuen Ort in einem anderen Bild in dem Mosaik verschmolzen werden kann.
  • Schritt 2: Bildausrichtung 103
  • Die ausgewählten Quellbilder werden in gewünschter Weise so zueinander ausgerichtet, daß jedes von ihnen mit entsprechenden Teilen benachbarter Bilder ausgerichtet ist. Die Ausrichtung bringt das Auffinden einer geometrischen Transformation oder eines "Scherens" mit sich, das alle ausgewählten Bilder, nachdem es auf sie angewandt wurde, in ein gemeinsames Koordinatensystem bringt. Die geometrische Transformation wird typischerweise im Sinne eines Satzes von Parametern definiert. Diese können Verschieben, Drehen, Erweitern, projektive Geometrie, höherwertige Polynome oder allgemeine Bewegungsparameter sein (z.B. stückweise Polynom mit einem anderen Satz von Parametern an jedem Abtastpunkt). Schertechniken sind in der provisorischen US-Patentanmeldung, Seriennummer 60/015,577, eingereicht am 18. April 1996, mit dem Titel "Computationally Efficient Digital Image Warping", beschrieben, die hierin durch Bezugnahme vollständig aufgenommen ist.
  • Die Ausrichtung kann interaktiv durch die Benutzerschnittstelle 109 erfolgen, indem der Benutzer dazu gebracht wird, korrespondierende Punkte anzuzeigen, und anschließendes Erkennen bzw. Entdecken der Transformationsparameter, die diese Punkte in Ausrichtung (oder gemäß dem Kriterium des kleinsten Fehlers nahezu in Ausrichtung) bringen, oder sie kann durch interaktives Spezifizieren der Transformationsparameter (z.B. mit einer Maus oder einer anderen Zeigevorrichtung) erfolgen.
  • Die Ausrichtung kann durch verschiedene Bildverarbeitungsverfahren, die die Scherparameter bestimmen, die eine beste Übereinstimmung zwischen benachbarten Bildern liefern, auch automatisch erfolgen. Die Ausrichtung kann manuelle und automatische Schritte kombinieren. Beispielsweise kann ein Benutzer die Bilder manuell in grobe Ausrichtung bringen und dann einen automatischen Prozeß auslösen, um die Scherparameter unter Bereitstellung einer präzisen Ausrichtung zu verfeinern.
  • Der Ausrichtungsprozeß kann mit dem Quellbildauswahlprozeß 102 wechselwirken. Die Ausrichtung liefert Informationen über den Grad bzw. das Ausmaß der Überlappung und im Falle von Video über die Geschwindigkeit der Kamerabewegung. Bilder können verworfen werden, wenn ihre Überlappung zu groß ist, oder neue Bilder können hinzugefügt werden, wenn das Ausmaß der Überlappung zu gering ist. Bilder können verworfen werden, wenn die Kamerabewegung zu groß ist und somit wahrscheinlich zu einer Bewegungsunschärfe führen. Abrupte Veränderungen der Kamerabewegung können verwendet werden, um den beabsichtigten Beginn und das beabsichtigte Ende der bei der Mosaikkonstruktion verwendeten Videosequenz zu signalisieren.
  • Diese Erfindung stellt Bildausrichtungsverfahren dar, die alle Einzelbilder gleichzeitig berücksichtigen. Im Vergleich zu den konventionellen Ausrichtungsansätzen, die zwei Bilder ausrichten, indem sie eine Fehlerfunktion zwischen diesen minimieren, schlägt diese Offenbarung ein Verfahren zum gleichzeitigen Ausrichten aller Bilder oder zum Ausrichten irgendeines Teilsatzes von Bildern vor, bei dem die Fehlerfunktion, die die Summe aller Fehler zwischen irgendeinem Paar von sich überlappenden Bildern ist, minimiert wird.
  • Schritt 3: Bereichsauswahl 104
  • Teilbereiche der ausgerichteten, einander überlappenden Quellbilder werden für die Aufnahme in das Mosaik ausgewählt. Der Auswahlprozeß unterteilt in wirksamer Weise den Bereich des Mosaiks in Teilbereiche, so daß jeder Teilbereich den Teil des Mosaiks darstellt, der aus jedem Quellbild entnommen wurde.
  • Die Auswahl kann manuell oder automatisch erfolgen. Die manuelle Auswahl kann durch das Ziehen von Grenzlinien auf einer Anzeige von benachbarten bzw. aneinander angrenzenden, sich überlappenden Bildem unter Verwendung einer Zeigevorrichtung, wie z.B. einer Maus, interaktiv über die Benutzerschnittstelle 109 erfolgen. Die automatische Auswahl findet die geeigneten Schnittlinien zwischen benachbarten Bildern auf Basis des Ortes (z.B. Abstand zum Zentrum jedes Quellbildes) oder der Qualität (z.B. Auflösung oder Bewegungsunschärfe).
  • In einem allgemeineren Ansatz für die Auswahl können einander überlappende Teile von Bildern durch Mitteln oder durch musterselektives Verschmelzen kombiniert werden.
  • Schritt 4: Bildverbesserung 105
  • Einzelne Bilder können vor dem Verschmelzen weiter verarbeitet werden, um ihren Kontrast oder ihre Schärfe zu verbessern oder um diese Charakteristika so einzustellen, daß sie den entsprechenden Charakteristika der zu ihnen benachbarten Bilder ähnlich sind. Die Verbesserung basiert auf der Intensität, der Farbe und auf Filteroperationen. Die Parameter dieser Vorgänge bzw. Operationen können manuell oder automatisch bestimmt werden.
  • Schritt 5: Verschmelzung 106
  • In diesem Schritt werden die ausgewählten Quellbilder zu einem einzigen Mosaik kombiniert. Dies geschieht in wünschenswerter Weise so, daß ein Ergebnis erzielt wird, das wie ein einzelnes Bild aussieht, ohne Übergänge oder andere Verschmelzungsartefakte. Das einfache Kopieren von Pixeln aus den ausgewählten Bereichen jeder Quelle in das Mosaik liefert im allgemeinen keine zufriedenstellenden Ergebnisse. Die Grenze zwischen benachbarten Segmenten, die sich in Charakteristika wie Kontrast, Auflösung oder Farbe wesentlich unterscheiden, kann in dem Mosaik als sichtbarer Übergang erscheinen.
  • Verfahren zum Kombinieren von Bildern beinhalten das Glätten, das Verschmelzen mit Mehrfachauflösung, das Mitteln und das Fusionieren. Das Glätten ist zufriedenstellend, wenn die Ausrichtung gut ist und die benachbarten Bilder ähnliche Eigenschaften haben. Die Verschmelzung mit Mehrfachauflösung kombiniert Bilder mit verschiedenen Mehrfachauflösungsniveaus zu einem Pyramiden-/Wellen-Bildtransformationsbereich. Dies ist zum Eliminieren sichtbarer Übergänge über einen breiten Bereich von Bedingungen hinweg wirkungsvoll. Das Mitteln ist als ein Mittel zum Verbessern des Signal-/Rausch-Verhältnisses geeignet, wenn die Quellbilder in dem Überlappungsbereich von vergleichbarer Qualität und in präziser Ausrichtung sind. Die Bildfusion stellt eine Verall gemeinerung des Verfahrens der Verschmelzung mit Mehrfachauflösung dar, wobei an jedem Ort, in jedem Maßstab und in jeder Orientierung unter den Quellbildern eine Auswahl getroffen wird.
  • Es ist oft der Fall, daß die Quellbilder nicht den gesamten Bereich des gewünschten Mosaiks abdecken. In dem Mosaik können Löcher verbleiben, die von keinem der Quellbilder abgedeckt werden, oder es kann um die verschmolzenen Quellbilder herum Bereiche geben, die sich nicht zur gewünschten Grenze des Mosaiks hin erstrecken. Diese Bereiche können leer belassen werden (z.B. kann ihnen eine einheitliche Farbe, wie Schwarz, zugewiesen werden), oder sie können in einer Weise aufgefüllt werden, die sie unverdächtig erscheinen läßt. Die letztere Wirkung kann durch Interpolation und Extrapolation mit Mehrfachauflösung oder durch Verschmelzen mit Mehrfachauflösung mit einem Bild-"Patch", der aus einem nahe gelegenen Stück eines der Quellbilder entnommen wird, oder mit einem Patch, der künstlich so erzeugt wird, daß er benachbarten Bildbereichen ähnlich zu sein scheint, erzielt werden.
  • In einigen Fällen kann es wünschenswert sein, Quellbilder in einer solchen Weise zu kombinieren, daß ein Gegenstand aus einem Bild vor einem durch das andere Bild bereitgestellten Hintergrund zu liegen scheint. Diese Wirkung wird durch sorgfältiges Schneiden des ersten Bildes entlang der beabsichtigten Grenze des Vordergrundobjekts (wie z.B. dem Gesicht einer Person) und anschließendes Einfügen der resultierenden Pixel in das andere Bild erzielt. Die Kanten können überlagert werden, um Aliasing-Effekte (ein gezacktes Erscheinungsbild aufgrund von Bildabtastung) zu vermeiden, und die Bilder können durch ausgefeiltere Verfahren, die scheinbar Schatten aus einer Quelle auf Hintergrundobjekte in der anderen fallen lassen, kombiniert werden. Die Grenzen können manuell oder automatisch identifiziert werden, während das Überlagern automatisch erfolgt.
  • Schritt 6: Mosaikformatierung 107
  • Sobald das Mosaik vervollständigt wurde, kann es weiter überarbeitet oder verarbeitet werden, um ein gewünschtes Bildformat zu erzielen. Beispielsweise kann es in ein neues Koordinatensystem geschert, beschnitten oder mittels Bildverarbeitungstechniken verbessert werden. Diese Schritte können automatisch oder manuell durch die Benutzerschnittstelle 109 erfolgen.
  • Ausaabevorrichtung 108
  • Das endgültige zusammengesetzte Mosaikbild kann auf einer Anzeige dargestellt werden, es kann gedruckt oder in einer Computerdatei gespeichert werden. Das Mosaik kann auch als ein Quellbild 101 für die Verwendung bei der Erstellung neuer Mosaike zur Verfügung gestellt werden.
  • Benutzerschnittstelle 109
  • Ein menschlicher Benutzer kann irgendwelche oder alle dieser Verarbeitungsschritte durch die Benutzerschnittstelle beobachten und steuern. Diese Schnittstelle beinhaltet normalerweise eine Bildanzeigevorrichtung und eine Zeigevorrichtung, wie eine Maus oder einen Leuchtstift. Der Benutzer kann Quellbilder, Bildbereiche und Operationen auf diesen Bildern durch eine visuelle Benutzerschnitstelle bestimmen. Der Benutzer kann durch Schiebebalken oder andere echte oder virtuelle "Knöpfe" auch Parameter der Operationen steuern. Er kann die Bildausrichtung manuell unterstützen, indem er korrespondierende Punkte in verschiedenen Bildern bestimmt oder Bilder auf dem Bildschirm unter Verwendung der virtuellen Knöpfe verschiebt, streckt oder dreht.
  • Zusätzlich zu standardmäßigen Benutzerschnittstellenverfahren, wie z.B. einer Tastatur und einer Zeigevorrichtung, stellt diese Erfindung auch eine einzigartige Benutzerschnittstelle für die Videoeingabe bereit, was es dem Benutzer erlaubt, Funktionen des Systems zu koppeln, indem er die Videokamera mit vorspezifizierten Bewegungen bewegt, wobei jede dieser vorspezifizierten Kamerabewegungen so interpretiert wird, daß sie einen Aspekt des Mosaikbildungsprozesses steuert.
  • Es sei angemerkt, daß die Reihenfolge der Schritte bei dem Mosaikkonstruktionsprozeß in einigen Fällen vertauscht werden kann und daß einige Schritte übersprungen werden können. Beispielsweise könnte der Verbesserungsschritt nach dem Segmentauswahlschritt oder vor dem Ausrichtungsschritt oder sogar vor dem Bildauswahlschritt durchgeführt werden, oder er könnte auch überhaupt nicht durchgeführt werden.
  • Bildauswahl
  • Der Bildauswahlschritt 102 kann zusätzliche Schritte, wie die in 2 gezeigten, beinhalten. Quellbilder können auf Basis verschiedener Faktoren, einschließlich Inhalt, Qualität und Ausmaß der Überlappung, ausgewählt werden. Im allgemeinen erfolgt der Prozeß bzw. Vorgang des Auswählens von Quellbildern iterativ, so daß einige anfangs ausgewählte Quellbilder später verworfen werden können und ursprünglich nicht ausgewählte Bilder später hinzugefügt werden können.
  • Auswahl auf Basis des Inhalts 201
  • Die Auswahl auf Basis des Bildinhalts erfolgt normalerweise manuell. Dies kann den Schritt des Ausschneidens von Bildern aus größeren Bildern, so daß sie in neue Bilder eingefügt werden können, beinhalten. Eine solche Auswahl und ein solches Ausschneiden erfolgen normalerweise auf einer Computeranzeige unter Verwendung einer Zeigevorrichtung, wie einer Maus.
  • Auswahl auf Basis der Qualität 202
  • Die Auswahl auf Basis der Bildqualität kann manuell oder automatisch erfolgen. Die automatische Auswahl wird normalerweise verwendet, wenn es sehr viele Quellbilder gibt, wie es bei der Mosaikkonstruktion aus einem Videosignal der Fall ist. Dieser Auswahlprozeß kann Bilder vermeiden, die beispielsweise aufgrund von Bewegungsunschärfe oder schlechter Belichtung verschlechtert sind.
  • Wenn die Quellbilder eine Videosequenz sind, so kann eine Bewegungsunschärfe erfaßt werden, indem zuerst die Bildverschiebung von Einzelbild zu Einzelbild gemessen wird. Der Grad bzw. das Ausmaß der Unschärfe nimmt proportional zur Einzelbildverschiebung und proportional zur Belichtungszeit für jedes Einzelbild als Bruchteil der Zeit zwischen Einzelbildern zu. Eine Verschiebung von Einzelbild zu Einzelbild kann durch den Bildausrichtungsprozeß 103 bereitgestellt werden. Zusätzlich kann die Belichtungszeit als Teil der mit dem Quellvideo bereitgestellten Informationen bekannt sein. Das Bild wird durch Unschärfe merklich verschlechtert, wenn das Produkt aus Belichtungszeit und Verschiebung einen Abstand repräsentiert, der im Vergleich zu einem Pixel in dem Bild groß ist.
  • Ein alternatives Verfahren zum Erfassen von Bewegungsunschärfe in einer Videosequenz besteht darin, das Ausmaß zu messen, zu dem das Bild in einer Richtung unscharf erscheint, während es in anderen Richtungen schart ist. Ein einfacher auf das Bild angewendeter Filter kann die Musterorientierung an jeder Pixelposition in dem Bild messen (dies kann ein Gradientenoperator oder ein Detektor für orientierte Kanten sein). Sind die resultierenden Orientierungen bzw. Ausrichtungen, wenn sie über ausgedehnte Bereiche des Bildes oder über das ganze Bild hinweg vereinigt werden, in einer Richtung in ungewöhnlicher Weise angehäuft bzw. geclustert, kann dies als ein Hinweis auf eine Bewegungsunschärfe gedeutet werden. Die Ausrichtungen können als ungewöhnlich geclustert beurteilt werden, indem man die Clusterbildung für ein Bild mit der Clusterbildung für benachbarte, überlappende Bilder vergleicht.
  • Ein Verfahren zum Bestimmen der Belichtungsqualität kann die Energie innerhalb eines Satzes von spektralen Frequenzbändern des Quellbildes messen. Für einen Satz von Bildern einer bestimmten Szene, die mit verschiedenen Belichtungen erhalten wurden, kann dasjenige mit der größten Energie als dasjenige mit der besten Belichtung genommen werden. Die Energie innerhalb eines Satzes von spektralen Bändern kann berechnet werden, indem man die Varianz der verschiedenen Ebenen bzw. Niveaus einer Laplace-Pyramidendarstellung dieses Bildes berechnet. Wenn die Energie für verschiedene Bänder für ein Bild im Vergleich zu der von sich überlappenden Bildern gering ist, kann das Bild unter der Annahme, daß es wahrscheinlich schlecht belichtet ist, aussortiert werden.
  • Auswahl auf Basis der Überlappung 203
  • Quellbild-Einzelbilder werden vorzugsweise so ausgewählt, daß sie ein geeignetes Ausmaß an Überlappung zwischen benachbarten Bildern bereitstellen. Dieser Auswahlprozeß hängt zum Teil von der Anwendung und den dem Mosaikkonstruktionssystem zur Verfügung stehenden Computerressourcen ab. Im allgemeinen ist es umso einfacher, eine Ausrichtung und eine Verschmelzung mit guter Qualität zu erzielen, je größer die Überlappung ist. Andererseits sind, je größer die Überlappung ist, umso mehr Quellbilder notwendig, um ein Mosaik zu konstruieren, das einen bestimmten Bereich abdeckt, und umso höher sind somit auch die Kosten der Computerressourcen. Das Ausmaß der Überlappung wird dem Auswahlsystem durch den Ausrichtungsprozeß 103 bereitgestellt.
  • Bildausrichtung
  • Der Schritt der Bildausrichtung kompensiert in wünschenswerter Weise Faktoren wie Kamerabewegung und Linsenverzerrung. Die Kamerabewegung kann eine einfache projektive Transformation zwischen einander überlappenden Bildern einfügen, oder sie kann zu einer komplexeren Parallaxentransformation führen, die die dreidimensionale Verteilung von Objekten in der Szene betrifft. Es gibt zur Zeit Ausrichtungsverfahren, die diesen Faktoren Rechnung tragen können. Hier definieren wir ein Verfahren zum Ausrichten von Sätzen von Bildern, die in zwei Dimensionen über den Bildbereich des Mosaiks verteilt sind, so daß jedes mit darüber und darunter sowie links und rechts davon liegenden benachbarten Bildern ausgerichtet wird.
  • Bestehende Verfahren zur Ausrichtung von Paaren von Bildern stellen Mittel zum Entdecken geometrischer Transformationen bereit, die, wenn sie auf die beiden Bilder angewandt werden, ein Maß der Bildübereinstimmung oder -ausrichtung in deren einander überlappenden Bereichen maximieren. Es können verschiedene Arten des Ausmaßes an Übereinstimmung, einschließlich Kreuzkorrelation und dem kleinsten quadratischen Fehler, verwendet werden.
  • Das neue Verfahren zum gleichzeitigen Ausrichten von drei oder mehr Quellbildern verallgemeinert das für Paare von Bildern verwendete Verfahren, indem es eine geometrische Transformation findet, die, wenn sie auf jedes der Quellbilder angewandt wird, zu einer globalen besten Übereinstimmung für alle Quellbilder führt. Die globale beste Übereinstimmung ist als eine geeignete Kombination von Maßen der Übereinstimmung für die Paare von einander überlappenden Quellbildern definiert. Im allgemeinen ist die Aufgabe des Findens einer globalen besten Ausrichtung computertechnisch schwierig. Das neue Verfahren führt praktische Mittel ein, um die beste globale Ausrichtung zu finden.
  • 3a zeigt den dreistufigen Prozeß für das Entdecken einer globalen Ausrichtung.
  • Stufe 1: Sequentielle Konstruktion von Teilmosaiken 301
  • Die Quellbilder werden in einem sequentiellen Prozeß zuerst in einem oder mehreren Teilmosaiken angeordnet. Dieser Prozeß beginnt mit der Auswahl eines oder mehrerer Quellbilder, die als Keime dienen. Dann wird aus jedem Keim ein Mosaik herangezogen, indem nacheinander einzelne weitere Quellbilder hinzugefügt werden. Jedes neue Bild wird mit dem bestehenden Mosaik paarweise ausgerichtet und dann in das Mosaik aufgenommen. Alternativ wird es mit einem der Bilder, die bereits in dem Mosaik sind, ausgerichtet, und die Parameter dieser Ausrichtung sowie der Ausrichtung des überlappenden Bildes werden unter Erhalt von Parametern zum Ausrichten des Bildes in Mosaikausrichtung mathematisch kombiniert.
  • Ein Teilmosaik wird typischerweise aus einer Videosequenz konstruiert, indem jedes neue Videoeinzelbild mit dem vorherigen Einzelbild ausgerichtet wird. Neue Teilmosaike können initiiert werden, wann immer es zu einer bedeutenden Veränderung in der Richtung der Kamerabewegung kommt.
  • Diese Verarbeitungsstufe liefert keine insgesamt beste Ausrichtung der Quellbilder, sondern nur eine ungefähre Ausrichtung von Teilsätzen von Bildern auf Basis eines Teilsatzes der möglichen paarweisen Ausrichtung der Bilder.
  • Stufe 2: Ungefähre Ausrichtung von Teilmosaiken 302
  • Die Teilmosaike werden grob miteinander ausgerichtet. In praktischen Systemen kann dieser Schritt manuell erfolgen, oder er kann auf groben Parametern für die Kameraausnchtung basieren, die von Kameraausrichtungssensoren, wie Gyroskopen, bekannt sind. Die Ausrichtung kannauch auf der Ausrichtung von Paaren von Teilmosaiken oder ausgewählten Paaren von Einzelbildern innerhalb zueinander benachbarter Teilmosaike unter Verwendung der bekannten Ausrichtungsverfahren der Bildverarbeitung basieren. Eine präzise Ausrichtung zwischen zueinander benachbarten Teilmosaiken ist oft nicht möglich. Eine Ausrichtung von Paaren von Teilmosaiken in Stufe 1 kann zur Ansammlung bzw. Akkumulation kleiner Ausrichtungsfehler über ein ausgedehntes Teilmosaik hinweg führen. Im Ergebnis kann jedes Teilmosaik relativ zu benachbarten Teilmosaiken leicht verzerrt sein.
  • Stufe 3: Iterative Verfeinerung 303
  • Sobald eine grobe Gesamtausrichtung aller Quellbilder erzeugt wurde, wird diese Ausrichtung durch einen iterativen Anpassungsprozeß verfeinert. Die Anpassung kann hierarchisch, z.B. in einem Pyramidensystem für die Bildverarbeitung mit Mehrfachauflösung, erfolgen. Unter Verwendung dieses Verfahrens werden zunächst Anpassungen für Darstellungen der Teilmosaike mit niedriger Auflösung berechnet. Dies verbessert die Ausrichtung des Gesamtmosaiks in großem Maßstab. Dann werden die Teilmosaike in kleinere Teilmosaike zerlegt, und die Anpassungen werden für diese, typischerweise bei einer höheren Bildauflösung, wiederholt. Dies verbessert die Gesamtausrichtung des Mosaiks in mittlerem Maßstab. Die kleinen Teilmosaike werden dann wiederum in kleinere Teilmosaike zerlegt und deren Ausrichtung wird angepaßt. Diese Aufteilungs- und Ausrichtungsschritte werden wiederholt, bis eine gewünschte Präzision und eine gewünschte Bildauflösung, möglicherweise auf der Ebene einzelner Quellbilder, erzielt wurden. Die angepaßten Ausrichtungen einzelner Einzelbilder und kleiner Teilmosaike können verwendet werden, um in einem Fein-Grob-Verfahren größere Teilmosaike zu rekonstruieren, Stufe 2. Die Fein-Grob- und Grob-Fein-Durchläufe können wiederholt werden, bis eine gewünschte Gesamtausrichtung erzielt wurde. Die Erfinder haben ermittelt, daß für die meisten Anwendungen ein einziger Durchlauf ausreichend ist.
  • Verfahren zum Anpassen der Ausrichtung
  • Das Verfahren zum Anpassen der Ausrichtungen in Stufe 3 berücksichtigt die globale Ausrichtung eines gegebenen Quellbilds (oder Teilmosaiks) mit allen dazu benachbarten, überlappenden Bildern (oder Teilmosaiken). Ein Maß der Übereinstimmung, das Messungen für alle Paare einander überlappender benachbarter Bilder (Teilmosaike) kombiniert, wird berechnet. Dann werden Parameter der geometrischen Transformation gefunden, die dieses Maß der kombinierten Übereinstimmung optimieren. Eine globale Ausrichtung kann für ein Bild (Teilmosaik) gleichzeitig oder für Gruppen von Bildern (Teilmosaiken) gleichzeitig durchgeführt werden. Diese Techniken werden unten als Verfahren 1 bzw. Verfahren 2 beschrieben. In jedem Fall werden die Anpassungsdurchläufe systematisch für alle Bilder (Teilmosaike), die das Gesamtmosaik bilden bzw. ausmachen, vorgenommen.
  • Diese Schritte lassen sich wie folgt deutlicher definieren:
    Gegeben sei eine Sequenz von N Quellbildern (oder Teilmosaiken) {Ik}, 0 ≤ k < N – 1; man berechne einen globalen Ausrichtungsfehler durch Aufaddieren aller Ausrichtungsfehler aus allen ein ander überlappenden Bildpaaren. Als "Ausrichtung" definieren wir einen Satz von Transformationen {Tk} so, daß jede Transformation Tk das Bild Ik in das gemeinsame Koordinatensystem des Mosaiks schert. Wenn Wk das durch die Transformation Tk gescherte Bild Ik ist, wird die Überlappung zwischen jedem Paar von ausgerichteten Bildern, Wm und Wn, berechnet. Es gibt N2 solcher Bildpaare. Wenn eine Überlappung vorhanden ist, kann ein Ausrichtungsfehler Emn berechnet werden. Emn kann beispielsweise die Summe der quadrierten Abweichung von Bildintensitäten in dem überlappenden Bereich, eine Kreuzkorrelation oder irgendein anderes Maß für die Qualität der Bildausrichtung sein. In Fällen, in denen die Bilder einander nicht überlappen, ist Emn Null. Der globale Ausrichtungsfehler E ist dann die Summe von Emn für alle N2 Bildpaare. Um die Lösung, bei der es zwischen irgendeinem Bildpaar keine Überlappung gibt, zu vermeiden, werden Standardverfahren verwendet. Diese beinhalten die Berücksichtigung nur derjenigen Ausrichtungen, bei denen es zumindest einen vorspezifizierten Bereich der Überlappung oder irgendeine vorspezifizierte Anzahl von sich überlappenden Paaren gibt. Das Maß der Übereinstimmung jedes Bildpaares kann durch Teilen des Maßes durch den Bereich der Überlappung normalisiert werden.
  • Das Koordinatensystem des Mosaiks wird in dieser Erfindung nicht angesprochen. Es kann das Koordinatensystem eines der Eingangsbilder oder ein anderes in anderer Weise berechnetes Koordinatensystem sein, oder es kann vom Benutzer manuell ausgewählt werden.
  • Wie sie in dieser Anmeldung verwendet wird, ist eine globale Ausrichtung ein Satz von Transformationen {Tk}, die den globalen Ausrichtungsfehler E minimieren. Dieser Satz von Transformationen ist unter Verwendung eines Minimierungsverfahrens zum Minimieren des globalen Ausrichtungsfehlers E zu finden.
  • Betrachten wir beispielsweise eine vorgeschlagene globale Bildausrichtung in 3. Die Fehlerfunktion für diese Ausrichtung wird aus allen Paaren von Bildern berechnet, die einen überlappenden Bereich gemeinsam haben. Der schattierte Bereich 321 ist beispielsweise der überlappende Bereich zwischen Einzelbild 311 und Einzelbild 312. Der Bereich 322 ist die Überlappung zwischen den Einzelbildern 313 und 314.
  • Selbst wenn das beispielhafte Verfahren so definiert wird, daß es alle Bildpaare verwendet, kann auch ein kleinerer Teilsatz von Bildpaaren verwendet werden, um die Geschwindigkeit der Berechnung zu steigern, oder in Situationen, in denen die relevanten Bildpaare durch irgendeinen anderen Prozeß im Vorfeld bestimmt werden können. Beispielsweise besteht eine Alternative zum Berechnen der Fehlerfunktion für alle Bildpaare, die einen überlappenden Bereich gemeinsam haben, darin, nur benachbarte Bildpaare zu verwenden. Eine Möglichkeit, das Aneinanderangrenzen von Bildpaaren zu definieren, besteht in der Verwendung des "Voronoi-Diagramms", wie es in "Voronoi Diagrams, a Survey of Fundamental Geometric Data Structures", F. Aurenhammer, (Aurenhammer) Computing Surveys, Band 23, 1991, S. 345–405, beschrieben ist. Unter Verwendung des Zentrums jedes Einzelbildes als Kern einer Voronoi-Zelle definieren wir diejenigen Einzelbilder als "benachbart" bzw. "angrenzend", deren Voronoi-Zellen einen gemeinsamen Vertex bzw. Eckpunkt haben.
  • Die gleichzeitige Minimierung des Ausrichtungsfehlers für alle überlappenden Bereiche oder sogar lediglich für die überlappenden Bereiche von benachbarten Bildpaaren kann computer- bzw. berechnungstechnisch aufwendig sein. Die Erfinder haben verschiedene vereinfachte Implementierungen definiert, die die computertechnische Komplexität reduzieren.
  • Verfahren 1 – Analytische Optimierung mit Grob-Fein-Verfeinerung
  • Übereinstimmungsmaße werden zuerst zwischen Paaren sich überlappender Einzelbilder berechnet. Die Übereinstimmungsmaße sind für einen kleinen Bereich von Parameterwerten, bezogen auf die Position der gegenwärtig erwarteten maximalen Übereinstimmung, als Flächen dargestellt. Diese Flächen können explizit dargestellt werden, indem das Maß ihrer Ausrichtung gespeichert wird oder indem sie implizit als parametrische Flächen gespeichert werden. Eine Abschätzung der besten Gesamtausrichtung kann dann auf Basis der Sammlung von Übereinstimmungsflächen für Paare von sich überlappenden Einzelbildern analytisch bestimmt werden. Die Quellbilder werden in die abgeschätzte beste Übereinstimmungsposition geschert, und die Übereinstimmungsflächen werden erneut berechnet. Der Prozeß kann mehrere Male wiederholt werden, um die Gesamtausrichtung sukzessive zu verbessern. Diese Schritte können weiterhin von grob nach fein implementiert werden, so daß die anfängliche Ausrichtung auf Darstellungen jeder Quelle mit niedriger Auflösung basiert und endgültige bzw. abschließende Verfeinerungen auf Darstellungen jeder Quelle mit hoher Auflösung basieren.
  • Die Iteration bzw. Wiederholung ist bei diesem Verfahren wünschenswert, weil die Flächen des Maßes der paarweisen Übereinstimmung für einfache Transformationen berechnet werden können, während die globale Ausrichtung unter Verwendung komplexerer Transformationen abgeschätzt wird. Beispielsweise können Flächen für das Übereinstimmungsmaß nur für Translationen berechnet werden, während die Gesamtausrichtung eines Bildes in Bezug auf mehrere benachbarte Bilder affine Transformationen beinhalten kann.
  • Verfahren 2 – Verfeinerung der lokalen Ausrichtung
  • Sobald der Satz von Quellbildern grob ausgerichtet ist, können die Ausrichtungsparameter jedes Bildes wiederum angepaßt werden, um die Übereinstimmung mit den dazu benachbarten überlappenden Bildern zu optimieren. Dies wird abwechselnd für jedes Quellbild wiederholt und dann mehrere Male wiederholt. Weiterhin kann der Prozeß als Grob-Fein-Verfeinerung implementiert werden. Die Implementierung kann entweder sequentiell erfolgen, wobei bei jeder Iteration die Transformation eines Bildes angepaßt wird, oder sie kann parallel erfolgen, wobei gleichzeitig mehrere einander überlappende Quellbilder jeweils mit den zu ihnen benachbarten Bildern ausgerichtet werden.
  • Bereichsauswahl
  • Jeder Punkt in dem endgültigen Mosaik kann durch mehrere Eingangsbilder abgedeckt werden. Eines davon wird in wünschenswerter Weise so ausgewählt, daß es den Pixelwert an diesem Punkt in dem Mosaik festlegt. Es sei SRk der Teilbereich des (transformierten) Bildes Wk, das in das Mosaik aufgenommen werden soll. Es gibt verschiedene Verfahren, die verwendet werden können, um die SRs auszuwählen.
  • Verfahren 1: Näherung
  • Das einfachste Verfahren zum Auswählen der SRs erfolgt durch Näherung zum Zentrum der Bilder. Es sei ein Mosaikpixel p von mehreren Bildern Wk abgedeckt. Das Kriterium der Näherung wählt den Wert für das Pixel p aus, das aus dem Bild Wk, dessen Zentrum p am nächsten liegt, entnommen werden soll. Diese Tessellierung ist als "Voronoi-Tessellierung" bekannt, und die resultierenden SRs sind konvexe Bereiche. In diesem Fall ist die Grenze zwischen zwei benachbarten Bildern der Bisektor des Liniensegments, das die Zentren der beiden Bilder miteinander verbindet. Die Voronoi-Tessellierung ist in dem oben genannten Artikel von Aurenhammer beschrieben.
  • Wenn beispielsweise die Eingangsbilder nur horizontale Translationen aufweisen, trägt jedes Eingangsbild nur einen senkrechten rechteckigen Streifen um sein Zentrum bzw. seine Mitte herum zum endgültigen Mosaik bei.
  • Ein Beispiel der Bereichsauswahl ist in 4 gezeigt. Die Einzelbilder 401, 402, 403 und 404 sind nach der Ausrichtung gezeigt. In dem konstruierten Mosaik 410 ist der Bereich 411 aus dem Einzelbild 401 entnommen, der Bereich 412 ist aus dem Einzelbild 402 entnommen, der Bereich 413 ist aus dem Einzelbild 403 entnommen, der Bereich 414 ist aus dem Einzelbild 404 entnommen, der Bereich 415 ist aus dem Einzelbild 402 entnommen, und der Bereich 416 ist aus dem Einzelbild 403 entnommen.
  • Verfahren 2: Bildqualität
  • Die SRs können auf Basis der Bildqualität ausgewählt werden. Der dem Pixel p des Mosaiks zugewiesene Wert ist aus dem Quellbild entnommen, das so beurteilt wird, daß es zu diesem Zeitpunkt die beste Bildqualität besitzt. Die Bewertungen der Bildqualität können auf Kriterien wie Kontrast oder Bewegungsunschärfe basieren. Als Beispiel kann die Gradientengröße verwendet werden. Diese ist größer, wenn das Bild schärfer ist. Ein solches Auswahlkriterium ist in dem US-Patent Nr. 5,325,449 mit dem Titel "Method for Fusing Images and Apparatus Therefor", ausgegeben am 28. Juni 1994, beschrieben, das durch Bezugnahme hierin aufgenommen ist, weil es die Berechnung von Bildgradienten verfolgt. Unter Verwendung aller überlappender Bilder, die einen spezifischen Bereich abdecken, wird das Bild mit der besten Qualität ausgewählt, um den Bereich darzustellen.
  • Verfahren 3: Ausrichtung
  • Der Grad der Ausrichtung ist über den Überlappungsbereich zwischen zwei Bildern hinweg oft nicht einheitlich. Die Schnittlinie, die die Grenze zwischen den SRs für diese Bilder festlegt, ist in wünschenswerter Weise so positioniert, daß sie entlang eines Ortes bzw. Lokus von Punkten, an denen die Ausrichtung besonders gut ist, durch den Überlappungsbereich verläuft. Dies minimiert eine Fehlausrichtung entlang von Mosaikübergängen, wo sie im endgültigen Mosaik am deutlichsten sichtbar wäre. Um diesen geometrischen Ort von Punkten zu finden, wird an jedem Pixel des Überlappungsbereichs ein Vektor der restlichen Fehlausrichtung abgeschätzt. Dann wird eine Schnittlinie gefunden, die den Bereich der Überlappung so unterteilt, daß die Summe der restlichen Fehlausrichtung entlang dieser Linie minimal ist. Die Voronoi-Tessellierung ist eine Annäherung an dieses Kriterium, wenn die bessere Ausrichtung sich in der Nähe des Zentrums der Bilder befindet, während die Ausrichtung sich zur Peripherie bzw. den Randbereichen der Bilder hin verschlechtert.
  • Bildverbesserung
  • Einzelne Bilder können vor dem Verschmelzen weiter verarbeitet werden, um ihren Kontrast oder ihre Schärfe zu verbessern oder um diese Charakteristika so anzupassen, daß sie den korrespondierenden Charakteristika der zu ihnen benachbarten Bilder ähnlich sind. Die Verbesserung basiert auf der Intensität, der Farbe und den Filteroperationen. Die Parameter dieser Operationen können manuell oder automatisch bestimmt werden.
  • Verschmelzung
  • In der Praxis kann es unerwünscht sein, Quellbilder zu einem Mosaik zusammenzusetzen, indem man einfach die Pixelwerte ihrer jeweiligen SRs in das Mosaik kopiert. Dies kann zu sichtbaren Übergängen führen. Vielmehr ist es wünschenswert, die aneinander angrenzenden Bildbereiche zu überlagern. Ein besonders effektives Mittel zum Überlagern zerlegt erst die Quellbilder in einen Satz von zwei oder mehr Bandpaßkomponenten räumlicher Frequenzen und verschmilzt dann die Bilder in jedem Band separat über eine Übergangszone hinweg, die proportional zu der mittleren Wellenlänge in diesem Band ist. Eine bekannte Implementierung dieses Verfahrens verwendet die Laplace-Pyramiden-Bildtransformation, um Bilder in ihre Bandpaßkomponenten zu zerlegen.
  • Für eine Erklärung zur Verwendung von Laplace-Pyramiden bei der Bildverschmelzung siehe Burt I oben. Diese Veröffentlichung zeigt auch, wie eine Laplace-Pyramide aus einem Bild zu konstruieren ist und wie ein Bild aus einer Laplace-Pyramide zu konstruieren ist.
  • Kurz gesagt werden zwei Laplace-Pyramiden erzeugt, die beide auf einem Bild basieren, dessen Größe die Größe des endgültigen Mosaiks M ist. Eine Pyramide M steht für das endgültige Mosaikbild, M, und die andere Pyramide L steht für das derzeitige Bild. Jedes Quellbild Ik wird zuerst durch Tk in das Bild Wk, das mit dem Mosaik ausgerichtet ist, transformiert (geschert). Das gescherte Bild wird dann durch Auffüllen mit Pixeln eines spezifizierten Wertes oder durch ein allgemeineres Extrapolationsverfahren, wie es unten beschrieben wird, so ausgedehnt, daß es den gesamten Bereich des Mosaiks abdeckt. Die Laplace-Pyramide L wird dann für Wk berechnet. Werte aus der Pyramide L werden auf Basis des Ortes des Segments SRk, das aus dem Wk stammt, an die entsprechenden Orte in der Pyramide M kopiert. Nachdem dies für jedes Bild durchgeführt wurde, haben alle Elemente in der Pyramide M, die von dem Eingangsbild abgedeckten Bereichen entsprechen, zugewiesene Werte. Das endgültige Mosaik M wird dann aus der Laplace-Pyramide M konstruiert, was ein übergangsloses Mosaik ergibt.
  • In einer beispielhaften Ausführungsform der vorliegenden Erfindung wird der Verschmelzungsprozeß mit Mehrfachauflösung nicht auf den Quellbildern selbst, sondern auf einer grauskalentransformierten Version des Bildes ausgeführt. Um Bilder, die sich im Hinblick auf ihre Belichtungscharakteristika signifikant unterscheiden, zu verschmelzen, werden die Bilder zunächst durch eine invertierbare komprimierende Skalartransformation, wie z.B. eine arithmetische log-Transformation, pixelweise transformiert. Die Verschmelzung mit Mehrfachauflösung wird auf den skalartransformierten Quellbildern durchgeführt, und dann wird das endgültige Mosaik durch Umkehren der Skalarfunktion für das durch Verschmelzung erhaltene Bild erhalten.
  • Ein Beispiel dafür, wann dieses Verfahren vorteilhaft sein kann, ist das üblicherweise vorkommende Beispiel der Verschmelzung von Bildern mit unterschiedlicher Verstärkung. Solche Bilder können von einer Videokamera mit automatischer Verstärkungssteuerung oder von einer Fotokamera, die für jedes Bild eine unterschiedliche Verstärkung anwendet, aufgenommen werden. Die Verstärkungstransformation kann durch Multiplizieren der Bildintensitäten angenähert werden. Um eine gleichmäßige Verstärkungstransformation durchzuführen, wird eine bessere Überlagerung erzielt, indem die logarithmische Transformation vor der Verschmelzung auf die Bilder angewandt wird. Die transformierten Bilder werden verschmolzen, und der Exponent (oder Antilog) der überlagerten transformierten Bilder liefert das Endergebnis.
  • Bei farbigen Bildern kann in Abhängigkeit von den Abbildungsverhältnissen die obige Transformation entweder nur auf die Intensitätskomponente oder auf jede Farbsignalkomponente einzeln angewandt werden.
  • Bereichsauswahl in Pyramiden
  • Eine beispielhafte Implementierung des Verschmelzungsprozesses mit Mehrfachauflösung wird in Burt I dargestellt. Diese Implementierung verwendet eine Laplace-Pyramide, um jedes Quellbild in einen regulären Satz von Bandpaßkomponenten zu zerlegen. Wenn zwei Bilder verschmolzen werden, kann eine Gewichtungsfunktion für eines dieser Bilder, z.B. W1, durch Konstruieren einer Gauß-Pyramide eines Maskenbildes, das innerhalb des Bereichs SR1 mit 1 und außerhalb dieses Bereichs mit 0 definiert ist, festgelegt werden. Eine solche Gauß-Pyramide liefert eine Gewichtung, die mit jeder entsprechenden Abtastung der Laplace-Pyramide von W1 multipliziert wird. Diese Gewichtung folgt der Regel der proportionalen Überlagerung. Wenn es nur zwei Quellbilder, W1 und W2, gibt und die Bereiche SR1 und SR2 komplementäre Teile des Mosaikbereichs darstellen, folgt die Verschmelzung mit Mehrfachauflösung dem folgenden einfachen Verfahren: (1) Errichten von Laplace-Pyramiden für W1 und W2. (2) Errichten von Gauß-Pyramiden für Masken, die in den Bereichen SR1 und SR2 liegen. (3) Multiplizieren der Laplace- und der Gauß-Komponenten für jede Quelle auf Basis von Abtastung zu Abtastung. (4) Addieren der resultierenden Produktpyramiden. (5) Ausführen der inversen Laplace-Pyramidentransformation, um die gewünschten verschmolzenen Bilder zu gewinnen.
  • In der Beschreibung dieser Erfindung führen wir zwei Verfeinerungen der durch Burt und Adelson definierten Verfahren ein.
  • 1. Gewichtete Summe mit Normalisierung
  • Wenn mehr als zwei Bilder verwendet werden und deren entsprechende Segmente SRk ohne Löcher oder Überlappungen den Bildbereich des Mosaiks exakt abdecken, kann das obige Verfahren auf die Verschmelzung irgendeiner Anzahl von Bildern verallgemeinert werden. Die Gesamtgewichtung, die die Gauß-Pyramiden für die Teilbereiche bereitstellen, addiert sich an jeder Abtastposition genau zu Eins. Wenn die SRk jedoch den Bildbereich des Mosaiks nicht exakt abdecken, kann sich die Summe der Gewichtungen an jeder Abtastposition zu Eins addieren. In diesem Fall können die Bilder wie in den Schritten 1 bis 4 oben kombiniert werden. Nun werden zwei neue Schritte eingeführt: (4b) Die Gauß-Pyramiden werden auf Basis von Abtastung zu Abtastung summiert und (4c) jeder Wert in der kombinierten Laplace-Pyramide wird durch den entsprechenden Wert in der kombinierten Gauß-Pyramide dividiert. Dies hat den Effekt, daß die Laplace-Werte normalisiert werden. Das endgültige Mosaik wird durch eine inverse Transformation wie in Schritt 5 gewonnen.
  • 2. Vereinfachte Auswahl
  • Es kann auch ein vereinfachtes Verfahren zum Konstruieren der kombinierten Laplace-Pyramiden verwendet werden, wobei die Gewichtungsfunktionen für die proportionale Überlagerung nur implizit sind. Bei diesem Verfahren werden für jedes Quellbild die Laplace-Pyramiden wie zuvor konstruiert (Schritt 1). Es werden keine Gauß-Pyramiden konstruiert (kein Schritt 2 und kein Schritt 3). Die Laplace-Pyramide für das Mosaik wird dann durch Kopieren aller Abtastungen von allen Ebenen der Laplace-Pyramide für jedes Quellbild Wk, das in den Bereich des korrespondierenden Segments SRk der Laplace-Pyramide für das Mosaik fällt, konstruiert (Schritt 4). Das Mosaik wird durch die umgekehrte Transformation erhalten, wie zuvor beschrieben (Schritt 5). Dieses vereinfachte Verfahren kann verwendet werden, wenn die Quellbildsegmente SRk den Mosaikbereich exakt abdecken, so daß keine Normalisierung notwendig ist. Die umgekehrte Laplace-Pyramidentransformation hat den Effekt, daß sie die ausgewählten Bandpaßkomponenten verwischt bzw. unscharf macht, um die proportionale Überlagerung, die von dem Verschmelzungsverfahren mit Mehrfachauflösung verwendet wird, bereitzustellen. Es sei angemerkt, daß die räumliche Position von (i, j) auf Ebene Eins einer Laplace-Pyramide, die mit einem ungerade Breiten erzeugenden Kern (Kernel) erzeugt wird, bei den kartesischen Koordinaten x = i21 und y = j21 liegt. Wenn diese Koordinaten für eine Abtastung innerhalb der Laplace-Pyramide für das Bild Wk in SRk fallen, wird dieser Abtastwert in die Laplace-Pyramide für das Mosaik kopiert.
  • Dieses vereinfachte Verfahren ist in 6 gezeigt. In 6 ist aus Gründen der Klarheit der Darstellung ein eindimensionaler Fall gezeigt; eine Verallgemeinerung zum Fall von zweidimensionalen Bildern ist jedoch direkt möglich. Gegeben seien drei ausgerichtete Bilder W1, W2 und W3; das endgültige Mosaik ist in den Pixeln 0–4 aus dem Bild W1, in den Pixeln 5–10 aus dem Bild W2 und in den Pixeln 11–16 aus dem Bild W3 zu konstruieren.
  • Die Werte von M0(x) werden wie folgt zugewiesen: Für die Pixel x = 0 ... 4 werden sie aus derselben Ebene der Laplace-Pyramide, die ebenfalls für x = 0 ... 4 für das Bild W1 erzeugt wurde, L0(x), genommen. Für die Pixel x = 5 ... 10 werden sie aus der für das Bild W2 für x = 5 ... 10 erzeugten Laplace-Pyramide L0(x) genommen. Für die Pixel x = 11 ... 16 werden sie aus der für das Bild W3 für x = 11 ... 16 erzeugten Laplace-Pyramide L0(x) genommen.
  • Für den Rest der Pyramide werden Werte von Mi(x) aus der entsprechenden i-ten Ebene der Laplace-Pyramide für das Bild genommen, das zu dem Ort 2ix in dem Mosaikbild M beiträgt. Daher werden für M1(x) Werte für x = 0 ... 2 aus der Laplace-Pyramide für das Bild W1 genommen, Werte für x = 3 ... 5 werden aus der Laplace-Pyramide für das Bild W2 genommen, und Werte für x = 6 ... 8 werden aus der Laplace-Pyramide für das Bild W3 genommen.
  • In diesem Beispiel wird die Laplace-Pyramide, wie in den meisten praktischen Fällen, nicht konstruiert, bis die obere Ebene nur ein einziges Pixel ist. In solchen Fällen wird die obere Ebene der Pyramide aus derselben Ebene der Gauß-Pyramide des Bildes genommen. G3 setzt sich daher aus Werten zusammen, die aus der Gauß-Pyramide der entsprechenden Bilder genommen wurden.
  • Handhabung von Bildgrenzen
  • Die einzelnen Quellbilder W sind auf demselben Koordinatensystem und demselben Abtastgitter definiert wie das endgültige Mosaik. Sie sind jedoch im allgemeinen kleiner als das Mosaik. Wenn eine Laplace-Pyramide für jedes Bild Wk konstruiert wird, ist es sinnvoll, dieses Bild zumindest implizit zu extrapolieren, um einen ausgedehnten Bildbereich bis zum gesamten Bereich des endgültigen Mosaiks abzudecken. Es ist wünschenswert, daß diese Ausdehnung sicherstellt, daß alle Abtastungen von der Pyramide, die zu dem endgültigen Mosaik beitragen (d.h. diejenigen mit Gewichtungen, die nicht Null sind, Verfahren 1, oder die in den Bereich von SRk fallen, Verfahren 2), wohldefinierte Werte haben.
  • Diese Extrapolation kann im Originalbild durchgeführt werden, oder sie kann bei der Konstruktion der Pyramide durchgeführt werden. Wenn sie im Originalbild durchgeführt wird, stellt die Extrapolation in wünschenswerter Weise sicher, daß kein Punkt innerhalb des Segments SRk innerhalb eines Abstands d von der Grenze des Bildes liegt, wo d = D 2M ist, wobei M die obere Ebene der Laplace-Pyramide ist, die beim Verschmelzen verwendet wird, und D eine kleine ganze Zahl ist, die mit der Größe des Filterkerns, der bei der Konstruktion von Pyramiden verwendet wird (z.B. ist D = die Hälfte der linearen Filterkerngröße für einen symmetrischen Filter mit einer geraden Anzahl von Abgreifern), in Beziehung steht. Ein einfaches Verfahren der Extrapolation von Bildbereichen besteht darin, die Werte von Kantenpixeln zu replizieren. Ein weiteres Verfahren, das bei der Mosaikkonstruktion verwendet werden kann, besteht darin, korrespondierende Pixel aus anderen Quellbildern zu kopieren. Wenn diese anderen Bilder sich in ihren Belichtungscharakteristika signifikant von Wk unterscheiden, können sie grauskalentransformiert werden, so daß sie ähnliche Charakteristika haben wie Wk. Die Extrapolation kann während der Konstruktion der Pyramide durch solche Verfahren, wie sie in "Moment Images, Polynomial Fit Filters, and The Problem of Surface Interpolation", P.J. Burt, ICPR 1988, S. 300–302 beschrieben sind, durchgeführt werden.
  • Farbige Bilder
  • Es gibt verschiedene Ansätze für den Umgang mit farbigen Bildern. Ein farbiges Bild kann als ein dreidimensionales Bild in irgendeinem der akzeptierten Farbstandards (RGB, YUV, Lab usw.) dargestellt werden.
  • Die Bildausrichtung kann in nur einer Komponente durchgeführt werden (z.B. in der Y-Komponente der Intensität), wobei eine reguläre monochrome Ausrichtungstechnik verwendet werden kann. Alternativ kann die Ausrichtung Fehlerfunktionen, die mehr als eine Komponente betreffen, minimieren.
  • Die Verschmelzung von Bildern kann für eine einzelne Komponente, wie beispielsweise für die Y-Komponente der Intensität, durchgeführt werden, während die beiden anderen Signalkomponenten direkt von den verschmolzenen Bildern genommen werden. Alternativ kann die Verschmelzung von Bildern für jede Komponente separat durchgeführt werden (z.B. die R-, G- und B-Komponenten oder die L-, a- und b-Komponenten), wobei jede Komponente wie ein monochromes Bild behandelt wird.
  • Für ein monochromes Mosaik verursacht das Verwischen bzw. Unscharfmachen der Übergänge zwischen den Bildern durch Splining, daß menschliche Betrachter nicht in der Lage sind, zu erkennen, daß es aus Teilbildern zusammengesetzt ist. Selbst ein rudimentärer Helligkeitsausgleich ist oft nicht erforderlich, wenn Splining durchgeführt wurde. Die Fusion von Teilbildern tritt auf, weil das menschliche Sehvermögen, obwohl es für Luminanzunterschiede bei hohen räumlichen Frequenzen (z.B. an Übergängen) recht empfindlich ist, bei niedrigen räumlichen Frequenzen (z.B. auf Teilbildern) weniger empfindlich ist. Andererseits werden Chrominanzunterschiede bei niedrigen räumlichen Frequenzen effektiver wahrgenommen. Selbst wenn der Übergang zwischen zwei Teilbildern in einem Mosaik verwischt ist, ist daher dennoch ein Farbungleichgewicht zwischen den Bildern zu erkennen, wenn man nicht Sorgfalt walten läßt und alle Teilbilder, nachdem sie ausgerichtet wurden und ehe sie miteinander gesplint werden, im Hinblick auf die Farbe korrigiert.
  • Hier wird ein Verfahren dargestellt, um auf Basis von Vergleichen zwischen den Farben in den Überlappungsbereichen zwischen den Bildern eine Farbkorrektur zwischen Teilbildern in einem Mosaik zu erzielen. Für zwei sich überlappende Bilder besteht das Verfahren darin, eine Anpassung der kleinsten Quadrate für den Überlappungsbereich der Bilder durchzuführen, um die affine Farbraumtransformation (unter den R-, G-, B-Signalkomponenten), die das zweite Bild am nächsten zum ersten bringt, zu ermitteln. Die resultierende affine Transformation wird dann auf das gesamte zweite Bild angewandt. Das Ausweiten der objektiven Funktion auf mehr als zwei einander überlappende Bilder erfolgt einfach durch Durchführen der affinen Transformation auf alle Bilder bis auf eines (wobei diese Transformationen im Hinblick auf das nicht-transformierte oder das Referenzbild stattfinden), und anschließendes Addieren der quadrierten RGB-Farbunterschiede für alle Pixel in allen Überlappungsbereichen.
  • Die Physik der Bilderzeugung liefert eine große Motivation für die affine Farbkorrektur. Unter recht allgemeinen und natürlichen Umständen kompensiert eine affine Transformation im Farbraum (a) Farbraumunterschiede zwischen zwei Bildern aufgrund verschiedener Erfassungssysteme, (b) Unterschiede im Beleuchtungsspektrum aufgrund verschiedener Erfassungszeiten und (c) Trübung und andere transluzente Medien in einem Bild, die in dem anderen nicht erscheinen. Dies wird in einem Dokument von M.H. Brill, veröffentlicht in MIT RLE Progress Reports Nr. 122 (1980) 214–221, beschrieben.
  • Die Implementierung des Algorithmus in diesem Kontext wird unten ausgeführt:
    • 1. Anwenden des obigen Bildausrichtungsalgorithmus nur auf die Luminanzbilder, Identifizieren und Indexieren der Überlappungsbereiche und Anwenden der von den Luminanzbildern abgeleiteten Transformation auf alle drei Farbsignalkomponenten.
    • 2. Identifizieren eines Referenzbildes G1 und Durchführen einer gleichzeitigen Anpassung der kleinsten Quadrate über alle Überlappungsbereiche hinweg, um die besten affinen Farbraumtransformationen zwischen jedem Nicht-Referenzbild Gk und dem Referenzbild zu ermitteln bzw. zu bestimmen. Die objektive Funktion ist die Summe über alle Pixel x in allen Überlappungsbereichen (z.B. für die Teilbilder i und k) von (AkGk(x) + bk – AiGi(x) – bi)2, wobei Gk(x) der Spaltenvektor von (R, G, B) am Pixelort x in Bild k ist und Gi(x) der Spaltenvektor von (R, G, B) am Pixelort x in Bild i ist. Ak und Ai sind 3 × 3-Matrizen, und bi und bk sind Vektoren der Spalte 3. Für das Referenzbild 1 ist Ai = 1 und bi = 0. Das Lösen der affinen Parameter, die die Matrizen A und die Vektoren b beinhalten, bringt das gleichzeitige Lösen von 12 N – 12 linearen Gleichungen mit derselben Anzahl von Unbekanten mit sich, wobei N die Anzahl an Teilbildern in dem Mosaik ist.
    • 3. Ausführen von getrenntem Bildsplining an R-, G- und B-Farbsignalkomponenten unter Verwendung des obigen Algorithmus.
    • 4. Sicherstellen, daß das Mosaik innerhalb eines realisierbaren Bereichs von digitalen Werten liegt. Dies erfolgt durch Addieren einer Konstante zu jeder Signalkomponente (z.B. R, G und B) in dem Bild, wobei diese Konstante so ausgewählt wird, daß alle negativen Pixelwerte entfernt werden. Dann wird jede Komponente durch eine Konstante skaliert, die ausreichend ist, um den maximalen Wert auf dem Bild auf den maximal erhältlichen digitalen Wert abzusenken.
  • Wenn die Bilder im Hinblick auf die Größe der dargestellten Objekte nicht perfekt ausgerichtet sind, können örtliche Pixelmittelungen die einzelnen Pixelwerte in der objektiven Funktion von Schritt 2 oben ersetzen.
  • Wenn die Ausrichtung auf Pixelebene schlecht ist, jedoch noch Bildüberlappungsbereiche identifiziert werden können, kann Schritt 2 so modifiziert werden, daß die affinen Transformationen optimiert werden, um mit den Farbsignalen und den Korrelationsmatrizen zwischen den Komponenten in den entsprechenden Überlappungsbereichen übereinzustimmen. Die Eigenschaft der quadratischen Transformation von Korrelationsmatrizen für die Farberkennung wird in einem Dokument von G. Healey und D. Slater, veröffentlicht in J. Opt. Soc. Am. A, 11 (1994), 3003–3010, beschrieben. Die neue objektive Funktion ist die Summe aller Überlappungsbereiche (z.B. zwischen den Teilbildern i und k) einer gewichteten Summe von (AkCkAk T – AiCiAi T)2 und (Akmk + bk – Aimi – bi)2. Anmerkung: Um Ak vollständig zu spezifizieren, ist es wünschenswert, einen analogen Ausdruck hinzuzufügen, der dritte Momente vergleicht, die als drittrangige Tensoren transformieren. Hier sind mk und Ck der Mittelwert von drei Signalvektoren und der 3 × 3-Korrelationsmatrix zwischen den Signalen für Pixel in dem Überlappungsbereich der Bilder i und k, und mi und Ci sind ähnlich definiert (noch immer innerhalb der Überlappung von i, k). Das resultierende Problem der kleinsten Quadrate führt zu einem nichtlinearen Satz von Gleichungen in den affinen Parametern. Wenn die zur Lösung dieser Gleichungen erforderlichen Berechnungen zu umfangreich sind, besteht eine Ausweichlösung darin, die vollständige 3 × 3-Matrix in der affinen Transformation durch eine diagonale Matrix zu ersetzen. In diesem Fall werden die Gleichungen der kleinsten Quadrate in den Quadraten der Matrixelemente linear und lassen sich leicht lösen. In dem speziellen Fall zweier einander überlappender Bilder wird jede Farbkomponente des Bildes G2 zu einem Bild G2' korrigiert, welches einen Mittelwert und eine Varianz hat, die mit dem Mittelwert und der Varianz des Bildes G1 durch die Transformation übereinstimmen. G2'= a G2 + b
  • Hier sind
  • a
    = sigma1/sigma2
    b
    = Mittelwert1 – (sigma1/sigma2)Mittelwert2,
  • Mittelwert1 und sigma1 sind die mittlere und die Standardabweichung der Pixelwerte in der betreffenden Farbsignalkomponente für das Bild G1 (das Referenzbild), und Mittelwert2 und sigma2 sind für das Bild G2 (das Kontrollbild) ähnlich definiert. Bei jeder Anwendung sollte bestimmt werden, ob dieser Schritt eine ausreichende Farbkorrektur erzieit, ehe die ausgefeilteren Farbanpassungen ausprobiert werden.
  • Die Basis für dieses alternative Verfahren zur Handhabung von farbigen Bildern ist die Verwendung von überlappenden Bildbreichen, um eine affine Farbkorrektur bei den Teilbildern in einem Mosaik zu bewirken. Obwohl die affine Farbkorrektur bei der Farbwiedergabe und der industriellen Bildverarbeitung (Machine Vision) einige Zeit diskutiert wurde, war sie nicht besonders erfolgreich, da die Entdeckung der korrekten affinen Transformation typischerweise entweder sehr restriktive spektrale Annahmen oder die Definition von Referenzfarben korrekt segmentierter Bereiche in dem Bild erforderte. Durch das Vorliegen einer Überlappung zwischen dem Kontrollbild und dem Referenzbild werden diese Probleme umgangen, und so wird eine direkte Berechnung der affinen Korrektur ermöglicht. Der Ansatz kann transitiv auf alle anderen Bilder ausgeweitet werden, die durch eine Reihe von Bildüberlappungen mit dem Referenzbild verbunden sind.
  • Interaktive Betrachtung der Ausrichtung
  • Nach der Ausrichtung werden die Bilder (optional) dem Benutzer präsentiert. Die Präsentation des Mosaiks findet in ähnlicher Weise statt wie die Präsentation in 3B, wo alle Bilder in das gemeinsame Koordinatensystem transformiert werden. Die Betrachtung erfolgt so, daß die Position jedes Bildes innerhalb des Mosaiks sowie auch des Originalbildes dargestellt wird. Eine solche mögliche Interaktion besteht darin, den Cursor oder eine andere Zeigevorrichtung über das Mosaik zu bewegen. Das Videoeinzelbild, das zu dem Bereich in dem Mosaik, in dem sich der Cursor befindet, beiträgt, ist in einem Teil des Bildschirms gezeigt, während der beitragende Bereich sowie die Bild grenze auf dem Mosaik gezeigt werden. Diese Interaktion erlaubt es dem Benutzer, die Qualität der Bilder und deren Ausrichtung zu untersuchen. Der Benutzer kann beispielsweise Einzelbilder von schlechter Qualität (z.B. mit Rauschen durch Unschärfe) löschen, während sichergestellt wird, daß alle Bilder in dem Mosaik durch mindestens ein Eingangsbild abgedeckt werden.
  • Einer der Effekte der obigen Interaktion besteht darin, dem Benutzer eine neue Möglichkeit zu geben, sich das Video anzusehen. Durch Steuern der Richtung und der Geschwindigkeit, mit der die Zeigevorrichtung sich über das Mosaik bewegt, kann der Benutzer nun die Anzeige des Videos steuern. Insbesondere kann der Benutzer die Vorlauf-/Rücklauf-Videoanzeige sowie die Geschwindigkeit steuern.
  • Eine zusätzliche Benutzerinteraktion kann wünschenswert sein, um eine schlechte Ausrichtung zu korrigieren. Die automatische Ausrichtung kann beispielsweise fehlschlagen, wenn die Bildüberlappung gering ist, wenn Bilder übermäßiges Rauschen aufweisen oder wenn die Bilder nur wenige Unterscheidungsmerkmale besitzen. In solchen Fällen kann der Benutzer die Bilder manuell ausrichten, indem er beispielsweise Einzelbilder mit einer Maus zieht oder indem er gemeinsame Merkmale, die in fehlausgerichteten Bildern auftreten, anklickt. Das System kann aus dieser Manipulation die Transformation der Einzelbildausrichtung berechnen. Solche Transformationen können als anfängliche Abschätzung für die weitere automatische Ausrichtung dienen, die nun aufgrund einer verbesserten anfänglichen Abschätzung bessere Ergebnisse liefert.
  • Steuerung der Vorrichtung auf Basis von Video-Bewegungsanalyse
  • Das übliche Verfahren zum Aktivieren einer Datenverarbeitungsvorrichtung oder eines Computerprogramms besteht im Drücken des "Ein"-Knopfes oder dessen Äquivalent, gefolgt vom Drükken des "Aus"-Knopfes oder dessen Äquivalent. In einigen Fällen wird jedoch der Betrieb einer Vorrichtung durch die Information, die sie verarbeitet, gesteuert. Ein Beispiel sind die "stimmaktivierten" Anrufbeantworter, die die Aufzeichnung eingehender Nachrichten stoppen, wenn auf der Telefonleitung keine Stimmensignale erfaßt werden.
  • Die vorliegende Erfindung beinhaltet die Verwendung eines Moduls für die Videobewegungsanalyse, um Vorrichtungen und Computerprogramme zu steuern, deren Betrieb nur relevant ist, wenn sich die Kamera bewegt oder wenn ein sich bewegendes Objekt im Sichtfeld erscheint. Die Videobewegungsanalyse, wie sie beispielsweise in dem Buch Digital Video Processing von M. Tekalp beschrieben ist, ist gut bekannt. Die Bewegung der Kamera oder des abgebildeten Objekts wird analysiert, und bestimmte Bewegungsmuster werden als Anweisungen von der Vorrichtung an das Computerprogramm interpretiert.
  • Eine beispielhafte Anwendung für die Bewegungssteuerung besteht in der Erzeugung von Panoramabildern aus zweiten Einzelbildern eines Videosignals oder aus einer Bildsequenz (Video-Brush). Die Steuerung dieser Vorrichtung kann wie folgt ablaufen: Die Mosaikbildung aus Bildern findet nur zwischen zwei Zeiträumen statt, in denen die Kamera stationär bzw. ortsfest ist. In diesem Beispiel wartet der Prozeß, nachdem die Mosaikbildung aus Bildern aktiviert wurde, bis die Kamera stationär ist (die Bewegung von Einzelbild zu Einzelbild geringer ist als ein gegebener Grenzwert), er startet die Mosaikbildung, wenn die Kamerabewegung einen bestimmten Grenzwert überschreitet, und er stoppt die Mosaikbildung, wenn die Kamera wieder stationär ist. Zusätzlich zur Kamerabewegung, die den Beginn und das Ende des Mosaikbildungsprozesses steuert, kann die Richtung der Kamerabewegung verwendet werden, um die internen Einzelheiten des Mosaikbildungsprozesses selbst zu steuern.
  • Beispielhafte Ausführungsform
  • Eine beispielhafte Ausführungsform der Erfindung wird unter Bezug auf die 7 bis 15 beschrieben. Diese beispielhafte Ausführungsform ist ein System für die Echtzeitaufnahme eines digitalen Bildstroms 714 mit hoher Auflösung unter Verwendung einer tragbaren digitalen Bildquelle niedriger Auflösung (wie einer Videokamera 710 und einem Digitalisierer 712 oder einer digitalen Videokamera) und von Software, die auf einem unmodifizierten Personal-Computer (nicht gezeigt) läuft. Dieser Prozeß erfolgt durch Kombinieren eines überaus effizienten "Front-End"-Bildausrichtungsprozesses 716, der Bilder unter Bildung eines anfänglichen Mosaikbildes 718 so schnell verarbeitet, wie sie empfangen werden, und eines überaus akkuraten "Back-End"-Bildausrichtungsprozesses 720 und eines Verschmelzungsprozesses 722, die ein übergangsloses Mosaikbild 724 liefern.
  • Damit das Gesamtsystem seine Funktionen ausführen kann, ist der Front-End- bzw. Vorausrichtungsprozeß in wünschenswerter Weise in der Lage, während des Bildaufnahmevorgangs eine kontinuierliche Bildausrichtung von Einzelbild zu Einzelbild auszuführen. Das Endergebnis dieses Prozesses besteht darin, daß die Datenstruktur 718 des anfänglichen Mosaiks aus einer Liste von einander überlappenden Quellbild-Einzelbildern besteht, wobei jedes Quellbild assoziierte Bewegungsparameter besitzt, die das Einzelbild anderen dazu benachbarten Einzelbildern in der Sequenz zuordnen. Wenn irgendeiner aus diesem Satz von Bewegungsparametern fehlt oder inkorrekt ist, kann es schwierig sein, das Mosaik zusammenzusetzen, weil das Verhältnis eines Teils der Bildsequenz zum Rest der Bildsequenz womöglich nicht festgelegt ist. Um eine zuverlässige Funktion des Systems bereitzustellen, arbeitet der Vorausrichtungsprozeß 716 somit in wünschenswerter Weise 1) in Echtzeit und gibt 2) mit großer Wahrscheinlichkeit ein korrektes Ausrichtungsergebnis für alle Einzelbilder wieder.
  • Das Ziel des beispielhaften Vorausrichtungsprozesses 716 besteht darin, eine minimale Ausrichtungskette (MAC) zu erzeugen, die das anfängliche Mosaik festlegt, indem der ganze Eingangsbildstrom zugeordnet wird. Diese MAC besteht aus einer Sequenz von Eingangsbildern zusammen mit Ausrichtungsparametern, die nacheinander jedes Bild nur mit dem vorherigen Bild in der Kette ausrichten. Sie ist minimal in der Hinsicht, daß sie so wenige der Eingangsbilder enthält, wie es möglich ist, damit der Ausrichtungsprozeß noch abläuft. Diese Eigenschaft der Minimalität ist wünschenswert, weil sie das Ausmaß an Verarbeitung und Speicherraum reduziert, die für den Back-End- bzw. Nachausrichtungsprozeß 720 und den Überlagerungsprozeß 722 erforderlich sind.
  • Eine beispielhafte Ausführungsform dieses Vorausrichtungsprozesses ist in 8 gezeigt. Er beinhaltet zwei Betriebsprinzipien: adaptive Bildabtastung und adaptive Filterauswahl. Andere Ausführungsformen können auf diesen oder auf ähnlichen Prinzipien basieren.
  • Da die MAC logischerweise das erste und das letzte Bild des Eingangsbildstroms beinhaltet, beginnt der Prozeß damit, das erste aufgenommene Bild als die erste Komponente der MAC und das anfängliche Referenzbild (RI) zu bestimmen. Das RI wird verwendet, um jedes der eingehenden Bilder sukzessive auszurichten, bis entweder 1) die geschätzte Überlappung zwischen dem eingehenden Bild und dem RI kleiner ist als ein bestimmter Grenzwert (z.B. 50% der Bilddimensionen) oder bis 2) ein Ausrichtungsfehler erfaßt wird. Der ausgewählte Betrag der Bildüberlappung gleicht den Wunsch nach Minimierung der Anzahl von Bildern in der MAC sowie den Wunsch nach Bereitstellung einer ausreichenden Überlappung für den Nachausrichtungsprozeß, um die Ausrichtung zu verfeinern, aus. Die Ausrichtung kann unter Verwendung irgendeiner effizienten bildbasierten Ausrichtungstechnik durchgeführt werden, wie beispielsweise denjenigen, die oben unter Bezug auf die 1 bis 3 beschrieben wurden. Für Effizienz und Stabilität bzw. Robustheit kann eine Bildkorrelationstechnik mit Mehrfachauflösung verwendet werden.
  • In 8 wird in Schritt 810 ein Bild von dem digitalisierten Bildstrom 714 empfangen. Der Prozeß erzeugt in Schritt 812 eine Pyramidendarstellung des Bildes und bestimmt in Schritt 814 diese Pyramide als Referenzpyramide. Als nächstes ruft der Prozeß in Schritt 816 das nächste Einzelbild aus dem Strom 714 ab. In Schritt 818 erzeugt der Prozeß eine Pyramidendarstellung für dieses Bild. In Schritt 820 korreliert der Prozeß die neu erzeugte Pyramidendarstellung des gegenwärtigen Bildes mit der Pyramidendarstellung des Referenzbildes. In Schritt 822 fährt die Steuerung, wenn die erfaßte Korrelation zwischen den Bildern gut ist, mit Schritt 824 fort, in dem bestimmt wird, ob die Verschiebung (Δx) zwischen den beiden Bildern kleiner ist als ein Grenzwert. Wenn dies zutrifft, ist die Überlappung zwischen dem gegenwärtigen Bild und dem Referenzbild größer als gewünscht, so daß das Einzelbild in Schritt 826 in einem Puffer abgelegt wird und die Steuerung zu Schritt 816 zurückkehrt, um ein neues Bild aus dem Strom 714 zu testen. Wenn in Schritt 824 die Verschiebung größer als der Grenzwert ist, wird Schritt 828 ausgeführt, der das Einzelbild der MAC hinzufügt und die Pyramide für das neu hinzugefügte Einzelbild als die Referenzpyramide bezeichnet.
  • Wenn jedoch in Schritt 822 keine gute Korrelation zwischen dem gegenwärtigen Bild und dem Referenzbild vorlag, wird Schritt 830 ausgeführt, der das als letztes im Puffer abgelegte Bild als das Referenzbild bezeichnet. Weil dieses Bild zwischengespeichert bzw. im Puffer abgelegt wurde, ist sichergestellt, daß es eine ausreichende Überlappung hat (eine Verschiebung, die kleiner ist als der Grenzwert). In Schritt 832 wird das gegenwärtige Bild mit dem neuen Referenzbild korreliert. Wenn in Schritt 834 eine gute Korrelation erfaßt wird, setzt der Prozeß die Steuerung mit Schritt 824, wie oben beschrieben, fort. Ansonsten wird Schritt 836 ausgeführt, der einen neuen räumlichen Filter für die Verarbeitung des Eingangsbildes festlegt. In Schritt 838 wird eine Pyramidendarstellung des neu verarbeiteten Bildes aufgebaut. In Schritt 840 wird diese Pyramidendarstellung mit der Referenzpyramide korreliert. Wenn in Schritt 842 eine gute Korrelation erfaßt wird, fährt die Steuerung mit Schritt 824 fort. Ansonsten ist ein Bildausrichtungsfehler aufgetreten und der Prozeß endet bei Schritt 844.
  • Wie es in 8 gezeigt ist, werden erfolgreich ausgerichtete Bilder einfach zwischengespeichert, bis die Verschiebung zwischen dem gegenwärtigen Bild und dem Referenzbild überschritten wurde, was anzeigt, daß die Überlappung zwischen den Bildern geringer ist als ein Maximalwert. Wenn dies auftritt, wird das gegenwärtige Bild der MAC-Datenstruktur hinzugefügt und als das neue RI bezeichnet. Wenn keine Ausrichtungsfehler erfaßt werden, fährt dieser Prozeß einfach fort, bis alle Bilder ausgerichtet sind und die vollständige MAC konstruiert wurde. An diesem Punkt besteht die MAC aus einer Sequenz von Eingangsbildern, einschließlich des ersten und des letzten Bildes der ursprünglichen Eingangssequenz, und einer Sequenz von Ausrichtungsparametern, die jedes Bild in der MAC mit dem vorherigen Bild ausrichten. Weiterhin besitzen die Bilder der MAC die Eigenschaft, daß jedes von ihnen das vorherige Bild in etwa um den Betrag überlappt, der durch den Überlappungsgrenzwert bestimmt wird. 9 zeigt ein mögliches Verhältnis zwischen dem Eingangsbildstrom 714 und der MAC 718.
  • An einem bestimmten Punkt während der Konstruktion der MAC kann es vorkommen, daß der Ausrichtungsprozeß keinen akzeptablen Satz von Ausrichtungsparametern zurückgibt. Dies kann aus einer Reihe von Gründen auftreten, die sich von dem Bildaufnahmeprozeß (Bildrauschen, Ausfälle, grelles Licht, schnelle oder unregelmäßige Kamerabewegungen), dem Bildinhalt (ein sich bewegendes Objekt oder verdeckte Objekte), der Bildverarbeitung (ungeeignete Bildfilterung) oder anderen unkontrollierbaren Umgebungsfaktoren ableiten lassen. Ein Ausrichtungsfehler kann anhand einer Reihe von Kriterien erfaßt werden, von denen einige für den bestimmten ausgewählten Ausrichtungsprozeß spezifisch sind. In der beispielhaften Ausführungsform der Erfindung wird in Schritt 822 ein Ausrichtungsfehler auf Basis eines großen Restfehlers nach der Ausrichtung, uneinheitlicher Abschätzungen aus verschiedenen Teilbereichen des Bildes oder abgeschätzter Ausrichtungsparameter, die außerhalb des erwarteten Bereichs liegen, erfaßt. Wenn eine dieser Bedingungen zutrifft, ist es notwendig, entweder den Ausrichtungsprozeß selbst zu modifizieren oder das Bild, mit dem eine Ausrichtung versucht wird (RI), zu ändern, um ein Abbrechen der Ausrichtungskette zu verhindern.
  • In der beispielhaften Ausführungsform findet diese Anpassung in zwei Schritten statt. Zuerst wird, wie es in Schritt 830 von 8 gezeigt ist, das als letztes erfolgreich ausgerichtete Bild als das RI bezeichnet und der MAC hinzugefügt. Dann wird eine Korrelation zwischen dem gegenwärtigen Bild und diesem neuen Referenzbild versucht. Wenn diese Korrelation erfolgreich ist, schreitet der Prozeß wie oben beschrieben fort. Es ist sichergestellt, daß die so erzeugte Struktur die Anforderungen an eine MAC erfüllt, da das neu bestimmte RI gut mit dem vorherigen RI ausgerichtet ist und eine Überlappung aufweist, die eine gute Korrelation erzeugt, jedoch geringer ist als ein spezifizierter maximaler Überlappungsgrenzwert. Wenn die Ausrichtung mit dem neuen RI fehlschlägt (bei Schritt 834), versucht der Prozeß, die Filter, die verwendet werden, um die bei dem Ausrichtungsprozeß verwendete Bildpyramide zu erzeugen, auszutauschen. Diese neuen Bildpyramiden (eine für das RI und eine für das gegenwärtige Bild) werden verwendet, um die Bildausrichtung zu berech nen. Wenn diese Ausrichtung erfolgreich ist, fährt der Prozeß wie oben beschrieben fort. Wenn die Ausrichtung mit den modifizierten Filtern fehlschlägt, endet der Front-End-Prozeß und gibt einen Fehlerzustand zurück.
  • Die durch den beispielhaften Prozeß vorgenommene Filterauswahl ist auf eine Annahme bezüglich des Bildinhalts bezogen. Filter, die geeignet sind, um Linien auf einer Weißwandtafel darzustellen, können ungeeignet sein, um gemusterte Tapeten oder die Möbel in einem Raum darzustellen. Wenn ein Ausrichtungsfehler erfaßt wird, wird daher die Annahme getroffen, daß dieser auf eine Veränderung der Beschaffenheit bzw. der Art des Bildinhalts zurückzuführen ist. Filter, die für eine andere Art von Bildinhalt geeignet sind, werden daher in der Bemühung, eine effektivere Bildwiedergabe und daher eine akkuratere Bildausrichtung zu erzielen, ersetzt. Obwohl der beispielhafte Prozeß nur einen Filterauswahlschritt zeigt, wird in Betracht gezogen, daß durch eine Rückverzweigung (nicht gezeigt) von der Nein-Ausgabe des Entscheidungsschritts 842 zu Schritt 834 eine Mehrzahl von Filterauswahlschritten vorgesehen werden kann.
  • Der in der beispielhaften Ausführungsform verwendete Ausrichtungsprozeß von Einzelbild zu Einzelbild berechnet die Bildverschiebung, was den minimalen absoluten Unterschied (MAD) zwischen dem gegenwärtigen Bild und dem Referenzbild ergibt. Dies beinhaltet das Addieren des Unterschieds zwischen dem verschobenen gegenwärtigen Einzelbild und dem Referenzbild an jedem Pixel und das Auffinden der Verschiebung, die diesen Unterschied minimiert. Dies ist ein Standardverfahren, welches das Verhalten der Verfahren zur Minimierung der Summe des quadrierten Unterschieds (SSD) annähert. Wie es in den 10A und 10B gezeigt ist, berechnet jedoch das beispielhafte Verfahren, um 1) die globale Bildausrichtung in Gegenwart lokaler Fehlausrichtungen stabil zu berechnen und 2) Ausrichtungsfehler besser zu erfassen, den MAD für jeden aus einem Satz von Bild-Teilbereichen (10A) sowie für das Bild als Ganzes (10B) separat. Dieser Prozeß erlaubt eine Ableitung von Informationen über den Status des Ausrichtungsprozesses aus Vergleichen dieser verschiedenen Schätzungen. Er erlaubt auch ein Aussortieren von falschen lokalen Schätzungen, wenn diese nicht mit den anderen übereinstimmen.
  • Die beispielhafte Ausführungsform des Front-End-Korrelationsprozesses ist in 11A gezeigt. Der beispielhafte Prozeß verwendet eine Grob-Fein-Verfeinerung auf Pyramidenbasis, um akkurate Ausrichtungsschätzungen effizient zu berechnen. Dieser Prozeß verwendet zuerst eine Analyse der Übereinstimmung zwischen den einzelnen Teilbereichsabschätzungen, um zu entscheiden, ob eine annehmbare erste bzw. anfängliche Abschätzung der Ausrichtungsparameter erzielt wurde. Das Kriterium, das verwendet wird, um zu bestimmen, ob die anfängliche Abschätzung annehmbar ist, kombiniert ein Maß der Übereinstimmung zwischen den Abschätzungen mit einem Maß der Gesamtmenge an restlichen Bildunterschieden bzw. -abweichungen, wie sie durch den globalen minimalen absoluten Unterschied dargestellt wird.
  • In 11A werden in Schritt 1110 die Pyramidendarstellungen des gegenwärtigen Bildes und des Referenzbildes erhalten. In Schritt 1112 wird die Variable Pyr Level auf Max Level eingestellt, was die höchste Ebene der Pyramiden ist. Die globalen und regionalen MADs für das Referenzbild und das gegenwärtige Bild werden in Schritt 1114 berechnet. In Schritt 1116 werden der globale MAD und die Anzahl an Übereinstimmungen zwischen den regionalen MADs und dem globalen MAD berechnet. In Schritt 1118 werden der globale MAD und die Anzahl an Übereinstimmungen (#A) mit einem Akzeptanzbereich R verglichen, um zu bestimmen, ob die Abschätzung akzeptabel bzw. annehmbar ist. Der Akzeptanzbereich ist in 11B gezeigt.
  • Wenn der globale MAD sehr gering ist (kleiner als ein Grenzwert Tlow), ist eine Mindestanzahl an Übereinstimmungen zwischen den Ausrichtungsabschätzungen der Teilbereiche und der Abschätzung der globalen Ausrichtung erforderlich, damit die Ausrichtung als akzeptabel beurteilt werden kann. Wenn der globale MAD in einem Zwischenbereich liegt (zwischen Tlow und einem zweiten Grenzwert Thigh), ist eine größere Anzahl an Übereinstimmungen erforderlich. Wenn der globale MAD sehr groß ist (größer als Thigh), ist eine noch größere Anzahl an Übereinstimmungen erforderlich. Die Übereinstimmung zwischen den Abschätzungen der globalen Ausrichtung und der Ausrichtung von Teilbereichen wird durch Vergleichen des Unterschieds zwischen den Abschätzungen mit einem dritten Grenzwert ermittelt. Dieser Grenzwert ist mit der Gesamtgröße der Verschiebung skaliert, so daß die Toleranz in Bezug auf die Größe ungefähr konstant ist.
  • Wenn die anfängliche Abschätzung akzeptiert wird, d.h. wenn die Anzahl an Übereinstimmungen und der globale MAD dazu führen, daß das Kriterium erfüllt wird, kann diese anfängliche Abschätzung durch einen Grob-Fein-Prozeß verfeinert werden. In der beispielhaften Ausführungsform beinhaltet dieser Prozeß das Suchen auf allen Pyramidenebenen mit hoher Auflösung nach einer akkurateren Abschätzung der Ausrichtung. Der erste Schritt bei dieser Suche, Schritt 1120, stellt die Variable Pyr Level auf die nächsthöhere Ebene ein. Im nächsten Schritt, Schritt 1122, werden die globalen MAD Werte und die MAD-Werte der Teilbereiche innerhalb eines Bereichs um jeden der Werte (global und für die Teilbereiche) herum berechnet, die auf der vorherigen Ebene berechnet wurden. Für jeden Teilbereich und für das Bild als Ganzes wird in Schritt 1124 die Ausrichtungsabschätzung ausgewählt, die den besten absoluten Unterschied (d.h. den mit dem kleinsten Wert) liefert. Wenn in Schritt 1126 mehr Ebenen in der Pyramide vorhanden sind, fährt die Steuerung mit Schritt 1120 fort, und der auf diese Weise berechnete Satz von Verschiebungswerten wird dann verwendet, um die Korrelation auf der nächsten Ebene zu verfeinern. Wenn die letzte Pyramidenebene erreicht wurde, wird die beste globale Abschätzung ausgewählt und in Schritt 1128 zurückgegeben.
  • Bezüglich der Filter, die verwendet werden, um die Pyramidendarstellungen für die Grob-Fein-Ausrichtung zu erzeugen, können verschiedene Auswahlen getroffen werden. Diese Auswahlen basieren in erster Linie auf der Art des Inhalts, der in der Eingangsbildsequenz erwartet wird. Das Ziel der Auswahl besteht darin, eine Pyramidenstruktur zu erzeugen, bei der die Ebenen der Pyramide mit niedriger Auflösung eine ausreichende Bildstruktur behalten, um eine akkurate Ausrichtung zu gestatten. Wenn beispielsweise eine Pyramide (entweder eine Gauß- oder eine Laplace-Pyramide) in üblicher Weise mit Eingangsbildern, die aus relativ dünnen Linien auf einem weißen Hintergrund bestehen (wie es der Fall ist, wenn ein Bild aus Schrift auf einer Weißwandtafel besteht), erzeugt wird, zeigen die Pyramidenebenen mit niedriger Auflösung sehr wenig Struktur, da die Linien nach der Tiefpaßfilterung sehr wenig Kontrast aufweisen.
  • Eine Lösung für dieses Problem besteht darin, einen nicht-linearen Vorfilter auf diese Eingangsbilder anzuwenden. Wenn beispielsweise das Eingangsbild gefiltert werden kann, um Kantenstrukturen zu extrahieren, es anschließend pixelweise mit einem Grenzwert verglichen und danach einer Entfernungstransformation unterworfen wird, um vor der Pyramidenerzeugung die Bildstruktur auszudehnen, enthält die resultierende Pyramide viel mehr brauchbare Inhalte auf Ebenen mit niedriger Auflösung. Andererseits ist dieser Vorverarbeitungsschritt für Szenenstrukturen im Freien, die typischerweise keine starken Kanten aufweisen, möglicherweise nicht effektiv. Um in variierenden Umgebungen (oder wenn die Bildsequenz sich von einer Art einer Szenestruktur zu einer anderen bewegt) stabil zu funktionieren, wird eine adaptive Auswahl der Art des Vorfilters getroffen. In der beispielhaften Ausführungsform (wie sie in 8 gezeigt ist) wird eine Veränderung des Vorfilters vorgenommen, wenn die Ausrichtung sogar nach Auswahl eines neuen Referenzbildes fehlschlägt. Dann wird unter Verwendung dieser neuen Pyramide eine Ausrichtung versucht. Wenn auch diese fehlschlägt, gibt der Prozeß einen Fehlerzustand aus und endet.
  • Sobald der Front-End-Prozeß erfolgreich eine MAC berechnet hat, wird diese Datenstruktur (die zugehörigen Bilder und die verbindenden Ausrichtungsparameter) für die endgültige Ausrichtung an den Back-End- bzw. Nachausrichtungsprozeß weitergegeben. Das Ziel des Nachausrichtungsprozesses ist es, einen Satz von Ausrichtungsparametern zu erzeugen, die jedes der in der MAC enthaltenen Bilder akkurat an einem einzigen Mosaikkoordinatensystem ausrichtet. Im allgemeinen unterscheiden sich die Koordinatentransformationen, die dem Nachausrichtungsprozeß zugrundeliegen, von denjenigen, die bei der Vorausrichtung verwendet werden. Dieser Unterschied wird durch drei Unterschiede gesteuert: 1) die Beschränkungen der Echtzeit-Verarbeitung, die beim Front-End-Prozeß vorhanden sind, werden gelockert, was im allgemeinen eine komplexere Berechnung erlaubt, 2) anfängliche Abschätzungen von Bild-Bild-Ausrichtungen werden als Teil der MAC bereitgestellt, was eine im allgemeinen stabile Berechnung komplexerer Modelle erlaubt, und 3) die Koordinatentransformationen sollten alle Bilder präzise auf ein einziges Koordinatensystem abbilden, was im allgemeinen komplexere Transformationsmodelle erfordert als sie für die Ausrichtung von Einzelbild zu Einzelbild verwendet werden.
  • Der Prozeß des Konstruierens der Abbildung von jedem Einzelbild in der MAC auf das einzelne Mosaikkoordinatensystem beinhaltet 1) die Auswahl des Mosaikkoordinatensystems, 2) die Auswahl eines parametrischen oder quasi-parametrischen Bildtransformationsmodells und 3) die Berechnung des Verhältnisses jedes Einzelbildes zu dem Mosaikkoordinatensystem über diese ausgewählte Transformation. In der beispielhaften Ausführungsform beginnt der Prozeß, indem er die MAC verwendet, um sowohl ein Mosaikkoordinatensystem als auch eine anfängliche Abbildung jedes Einzelbildes auf das Koordinatensystem zu erzielen. Diese Abbildung wird dann durch einen inkrementellen Prozeß verfeinert, bei dem abwechselnd für jedes Einzelbild Ausrichtungsparameter abgeschätzt werden. Ein alternativer Mechanismus besteht darin, gleichzeitig alle Einzelbilder mit dem ausgewählten Koordinatensystem auszurichten, wie es beispielsweise in der provisorischen US-Patentanmeldung Nr. 601030,892 mit dem Titel "Multi-View Image Registration With Application to Mosaicing and Lens Distortion Correction" beschrieben ist, die aufgrund ihrer Lehre über die Bild ausrichtung hierin durch Bezugnahme aufgenommen ist. Die Auswahl einer inkrementellen oder einer sequentiellen Ausrichtung wird in diesem Fall zumeist durch das Erfordernis, die Berechnungskomplexität zu reduzieren, und die korrespondierende Abnahme der Verarbeitungszeit gesteuert. Dieser sequentielle Prozeß wird unten als "Einzelbild-zu-Mosaik"-Verarbeitung bezeichnet.
  • Der Back-End-Prozeß ist in 15 gezeigt. Als ein erster Schritt 1510 erzeugt der Prozeß ein anfängliches Arbeitsmosaik aus der MAC. In der beispielhaften Ausführungsform sind die durch das Front-End als Teil der MAC bereitgestellten Ausrichtungsparameter einfach Translationsvektoren, die jedes Einzelbild mit dem vorherigen verbinden. Um das anfängliche Arbeitsmosaik zu erzeugen, werden die Einzelbilder in dem Bild entsprechend dieser Translationsvektoren verschoben, so daß die Position der oberen linken Ecke jedes Einzelbildes in Bezug auf das Mosaikkoordinatensystem durch die Vektorsumme aller Translationsvektoren bis zu diesem Punkt in der Sequenz gegeben wird. Mit anderen Worten, der Prozeß "verteilt" die Einzelbilder in dem Bild so, daß jedes Einzelbild das vorherige überlappt, wie es durch die Ausrichtungsparameter in der MAC spezifiziert ist. Im Falle einer allgemeineren Transformation, die in der MAC spezifiziert ist, kann der Prozeß die Transformationen von Einzelbild zu Einzelbild unter Erzeugung einer anfänglichen Einzelbild-zu-Mosaik-Transformation für jedes Einzelbild zusammensetzen.
  • Sobald diese anfängliche Abbildung erstellt wurde, wählt der Prozeß in Schritt 1512 ein Bild aus, das als Start- bzw. Ausgangspunkt für den sequentiellen Ausrichtungsprozeß von Einzelbild zu Mosaik dient. Dieses Bild legt das Koordinatensystem des Mosaiks fest. Im allgemeinen kann diese Auswahl auf Basis einer Vielzahl von Kriterien, einschließlich der geschätzten Position, des Bildinhalts, der Bildqualität und/oder der Benutzerauswahl, vorgenommen werden. In der beispielhaften Implementierung wählt der Prozeß das Quellbild aus, dessen Mittelpunkt bzw. Zentrum dem Schwerpunkt des begrenzenden Rechtecks von Bildpositionen am nächsten liegt, wie es durch das anfängliche Arbeitsmosaik festgelegt wird. Dieses Bild bildet das anfängliche Mosaik. Der Grund für diese Auswahl besteht darin, nach der abschließenden Ausrichtung die Verzerrung transformierter Einzelbilder an den Kanten bzw. Rändern des Bildes zu minimieren. Falls durch den Vorausrichtungsprozeß als Teil der MAC eine allgemeinere Bild-zu-Bild-Transformation bereitgestellt wird, kann es wünschenswert sein, das Koordinatensystem des anfänglichen Arbeitsmosaiks neu zu berechnen, damit das ausgewählte Startbild unverzerrt bleibt.
  • Die Auswahl der parametrischen oder der quasi-parametrischen Bild-zu-Mosaik-Transformation hängt sowohl von der Beschaffenheit der Eingangsbilder als auch von der Beschaffenheit des zu konstruierenden Mosaikbildes ab. Dies wird in einem Dokument von J.R. Bergen, P. Anadan, K.J. Hanna und R. Hingorani mit dem Titel "Hierarchical Model-Based Motion Estimation", European Conference on Computer Vision, Mai 1992, beschrieben, welches aufgrund seiner Lehren über parametrische und quasi-parametrische Bild-zu-Mosaik-Transformationen durch Bezugnahme hierin aufgenommen ist. Wenn beispielsweise die Bilder von einer Kamera, die eher einer Drehbewegung als einer translationalen Bewegung unterworfen ist, gesammelt werden, können die Bilder mit einer projektiven Transformation ausgerichtet werden. Wenn jedoch das Blickwinkelfeld sich 180 Grad annähert, resultiert eine Transformation aller Bilder, damit diese auf einer einzigen flachen Bildebene liegen, in einer extremen Verzerrung der Eingangsbilder, die weit vom Zentrum des Mosaikbildes entfernt liegen. In der gegenwärtigen Ausführungsform wird die Auswahl der Bildtransformation explizit durch den Benutzer vorgenommen, um die gewünschte Wirkung zu erzielen. Im Prinzip könnte sie jedoch auf Basis einer Analyse der Eingangsbilder und der Art der Transformation, die notwendig ist, um die Bilder mit dem gemeinsamen Koordinatensystem auszurichten, auch automatisch erfolgen.
  • Der Einzelbild-zu-Mosaik-Ausrichtungsprozeß beginnt in Schritt 1512 mit dem Bestimmen des Startbildes, das auf das Mosaikkoordinatensystem abgebildet ist, als das anfängliche Mosaik. In Schritt 1514 wählt der Prozeß ein nächstes Einzelbild aus, um es dem Mosaik hinzuzufügen. In der beispielhaften Ausführungsform werden Einzelbilder in der Reihenfolge hinzugefügt, in der sie in der MAC vorkommen, wobei sie von dem Startbild aus vorwärts und rückwärts bewegt wird. Wenn somit das Starteinzelbild Einzelbild 10 aus einer Gesamtzahl von Einzelbildern 1 bis 20 wäre, so könnte die Reihenfolge der Anordnung 10, 11, 12, 13, ... 20, 9, 8, 7, ..., 1 sein. Alternativ kann der Prozeß die Einzelbilder in irgendeiner Reihenfolge, die von ihrer Position in dem anfänglichen Arbeitsmosaik abgeleitet ist (beispielsweise in der Reihenfolge ihres zunehmenden Abstands vom Starteinzelbild), anordnen.
  • Für jedes Einzelbild in der Sequenz wird in Schritt 1516 durch Berechnen von Parametern der Ausrichtung mit dem vorherigen Einzelbild in der Sequenz (d.h. mit dem Einzelbild, das zuvor mit dem Mosaik ausgerichtet wurde) eine anfängliche Ausrichtung mit dem Mosaikkoordinatensystem berechnet. Wir bezeichnen diesen Satz von Ausrichtungsparametern Tinc als inkrementelle Transformation. In Schritt 1515 wird diese Transformation mit der Transformation, die verwendet wurde, um das vorherige Einzelbild mit dem Mosaik auszurichten, Ti-1, zusammengesetzt, um eine Abschätzung Test der Transformation zu erzeugen, die das gegenwärtige Einzelbild mit dem Mosaik ausrichtet. Dieser Prozeß ist in 13 gezeigt. Unter Verwendung der abgeschätzten Transformation Test, legt der Prozeß in Schritt 1518 einen Bereich fest, in dem das gegenwärtige Einzelbild das Mosaik überlappt. Diese Abschätzung wird dann in Schritt 1520 durch Ausrichten mit dem überlappenden Bereich des gegenwärtigen Mosaiks, wie es in 13 gezeigt ist, verfeinert. Nachdem in Schritt 1522 diese abschließende Ausrichtung berechnet wurde, wird das neu ausgerichtete Einzelbild durch Scheren des neuen Bildes mit dem Mosaikkoordinatensystem und Ausdehnen des Arbeitsmosaikbildes mit den gescherten Pixeln, wie es in 14 gezeigt ist, dem Arbeitsmosaik hinzugefügt. Wenn in Schritt 1524 das verschmolzene Bild das letzte zu verarbeitende Bild in der MAC war, endet der Prozeß bei Schritt 1526. Ansonsten verzweigt der Prozeß zurück zu Schritt 1514, um das nächste Bild auszuwählen, das in das Mosaik verschmolzen werden soll.
  • Die Berechnungen der Ausrichtung, die am Nachausrichtungsprozeß beteiligt sind, können im Prinzip unter Verwendung irgendeiner Berechnungstechnik durchgeführt werden. In der beispielhaften Ausführungsform der Erfindung verwendet der Nachausrichtungsprozeß ein direktes Abschätzverfahren, um die Ausrichtungsparameter unter Verwendung einer Levenberg-Marquardt-Iteration in einem Grob-Fein-Verfeinerungsprozeß mit Mehrfachauflösung abzuschätzen. Dieser Berechnungsansatz wird ausgewählt, weil er akkurate und stabile Ausrichtungsschätzungen liefert und über einen breiten Bereich von Bildausrichtungsmodellen hinweg anwendbar ist. Er ist auch berechnungstechnisch überaus effizient, da er kein explizites Suchen oder eine Merkmalsextraktion erfordert.
  • Um die Komplexität der Berechnungen zu reduzieren, wird Tinc in Schritt 1514, wie es in 12 gezeigt ist, nur auf der Pyramidenebene 2 ausgeführt. Im allgemeinen kann diese Berechnung der anfänglichen Ausrichtung auf irgendeiner Ebene durchgeführt werden, die eine Abschätzungsgenauigkeit liefert, die geeignet ist, um als Ausgangspunkt für die endgültige Ausrichtung von 13 zu dienen. Der abschließende Ausrichtungsschritt 1520 wird auf beiden Pyramidenebenen 1 und 2 wiederholt. Um auch die Berechnungszeit zu reduzieren, wird jedoch die Iteration auf Ebene 1 nur über einen Teilsatz des Bildbereichs hinweg durchgeführt. Dieser Teilsatz wird durch Anwenden eines "von-Interesse-Operators" auf das Referenzbild, das Bilden eines Grenzwerts von dem Ausgang dieses Operators und das Ausführen einer nicht-maximalen Unterdrückungsoperation ausgewählt. Das Ergebnis dieses Prozesses ist eine Pixelmaske, die die Akkumulierung von Werten, die bei dem Iterationsprozeß verwendet werden, steuert.
  • Das der Art des verwendeten von-Interesse-Operators zugrundeliegende Prinzip ist es, daß Bildpunkte mit großen Werten des Bildgradienten am meisten zur Bestimmung der abgeschätzten Werte der Ausrichtungsparameter beitragen. Dies trifft für viele Abschätzverfahren, einschließlich Levenberg-Marquardt, Gauß-Newton und andere herkömmlicherweise verwendete Techniken, zu. Folglich berechnet in der beispielhaften Ausführungsform der Prozeß die Größe des Bildgradienten auf Pyramidenebene 1, wendet einen Grenzwert hierauf an und eliminiert dann alle Punkte, die kleiner sind als der Grenzwert, und eliminiert dann weiterhin alle Punkte außer den größten Werten innerhalb eines Fensters einer bestimmten Größe. Das Ergebnis dieses Prozesses ist eine relativ spärliche Maske (d.h. eine, die nur einen kleinen Bruchteil von Bildpunkten zuläßt), die jedoch Bereiche des Bildes darstellt, die sehr viel zur Abschätzung der Ausrichtungsparameter beitragen.
  • Im allgemeinen können auch andere Auswahlverfahren verwendet werden, die den gleichen Zweck erfüllen. Es wird beispielsweise in Betracht gezogen, daß die Auswahlkriterien so formuliert werden können, daß eine feste Anzahl an Punkten in der Maske enthalten ist (beispielsweise durch adaptives Variieren des Grenzwerts), so daß die Berechnungskosten der abschließenden Ausrichten von der Größe des Eingangsbildes in etwa unabhängig werden.
  • Als abschließender Schritt in dem beispielhaften Verfahren, Schritt 722 von 7, werden die verschiedenen ausgerichteten Bilder unter Bildung des übergangslosen Mosaikbildes 724 verschmolzen. Irgendeine der oben beschriebenen Techniken kann verwendet werden, um die ausgerichteten Bilder unter Bildung eines einzelnen Mosaikbildes zu verschmelzen.
  • Schlußfolgerung
  • Es wird ein Verfahren zum automatischen Auswählen von Quellbildsegmenten für die Aufnahme in das Mosaik aus dem Satz von verfügbaren Quellbildern in einander überlappenden Bereichen definiert. Das Grundsystem beinhaltet ein Verfahren, das einen Satz von Quellbildern zu einem Mosaik kombiniert und die folgenden Schritte umfaßt: (i) Ausrichten von Quellbildern, (ii) Verbessern der Quellbilder, (iii) Auswählen von Quellbildbereichen, (iv) Verschmelzen von Bereichen. Andere Arten von Systemen werden ebenfalls in Betracht gezogen. Diese beinhalten die folgenden:
    • 1) Ein System, bei dem die Mosaike kontinuierlich erzeugt werden, während Videoeinzelbilder empfangen werden, wobei die Mosaike kontinuierlich als Video angezeigt werden können, während das Bild konstruiert wird.
    • 2) Ein System, das die Konstruktion an allen (oder vielen) Quelleinzelbildern gleichzeitig ausführt.
    • 3) Ein System, das es einem Benutzer erlaubt, ein Mosaik anzupassen und zu bearbeiten, und das das Mosaik nach jeder solchen Bearbeitung oder auf Anforderung wiederherstellt, wobei die Bearbeitung das Verschieben, das Ausschneiden, das Einkopieren und das Verbessern der Quellbilder beinhalten kann.
    • 4) Ein System, das eine erste Version eines Mosaiks mit leicht reduzierter Qualität erzeugt (um den Berechnungsaufwand zu reduzieren und die Geschwindigkeit zu steigern). Sobald abschließende Komponentenbilder des Mosaiks durch den Benutzer ausgewählt wurden, wird das zusammengesetzte Bild mit höherer Qualität wiederhergestellt. In diesem Fall kann die anfängliche Erzeugung mehrere Anwendungen von beispielsweise Scherungen oder der inkrementellen Ausrichtung und Verschmelzung beinhalten, während das abschließende Mosaik diese Operationen wiederholt, indem es direkt mit den Einzelbildern arbeitet.
    • 5) Ein System, das das Mosaik nur dann erzeugt, wenn es notwendig ist, wobei der Benutzer ein gewünschtes Referenzeinzelbild spezifiziert und dann ein Mosaik konstruiert wird. In diesem Fall berechnet der Algorithmus typischerweise alle Ausrichtungen zuerst als einen inkrementellen Prozeß oder Batch-Prozeß und regeneriert dann das Mosaik auf Anforderung aus einer gewünschten Perspektive. (Dies wird durchgeführt, um zusätzliche Scherungen zu vermeiden.)
  • Es versteht sich, daß die Vorrichtung und das Verfahren für den Betrieb, wie sie hierin gelehrt werden, für die Erfindung veranschaulichend sein sollen. Modifikationen sind für Fachleute auf dem Gebiet offensichtlich, ohne vom Schutzbereich der Erfindung abzuweichen.

Claims (10)

  1. Computerimplementiertes Verfahren für das Ausrichten einer Mehrzahl von Quellbildern, welches die folgenden Schritte aufweist: a) Analysieren der Quellbilder, um einige der auszurichtenden Quellbilder auszuwählen und eine anfängliche bzw. erste Ausrichtung der Quellbilder zu erzeugen, und b) Analysieren der ausgewählten Quellbilder, um ein Koordinatensystem für ein Bildmosaik zu erstellen, dadurch gekennzeichnet, daß der Schritt des Analysierens der Quellbilder, um einige der auszurichtenden Quellbilder auszuwählen, Bilder auf Basis der Überlappung zwischen den Quellbildern auswählt, um ein kombiniertes Maß bzw. Ausmaß an Übereinstimmung für alle Paare von sich überlappenden Quellbildern zu optimieren, und der Schritt des Analysierens der ausgewählten Quellbilder, um ein Koordinatensystem für das Bildmosaik zu erstellen, ein anfängliches bzw. erstes Bild aus den ausgewählten Bildern auswählt, um das Koordinatensystem festzulegen bzw. zu definieren, wobei das Verfahren weiterhin den folgenden Schritt beinhaltet: c) Ausrichten einiger der ausgewählten Quellbilder mit dem Koordinatensystem durch Auswählen nachfolgender Bilder auf Basis zumindest entweder (i) des Bildinhalts, (ii) der Bildqualität oder (iii) der Überlappung zwischen den Quellbildern, und Ausrichten jedes der nachfolgenden ausgewählten Bilder mit dem durch das anfängliche Bild definierten Koordinatensystem.
  2. Verfahren nach Anspruch 1, wobei Schritt a) die folgenden Schritte beinhaltet: Berechnen einer Transformation von Bildkoordinaten zwischen einem der empfangenen Bilder und einem zuvor ausgewählten Bild, welches die folgenden Schritte aufweist: Filtern des Bildes in Übereinstimmung mit einer ausgewählten Filtercharakteristik, Erzeugen eines Ausmaßes an Korrelation zwischen dem einen gefilterten Bild und dem zuvor ausgewählten Bild und Vergleichen des Ausmaßes der Korrelation mit einem Schwellwert, und wenn das Ausmaß der Korrelation kleiner ist als der Schwellwert, Auswählen einer anderen Filtercharakteristik, und Fortsetzen des Filterns, Korrelierens und Vergleichens des Ausmaßes der Korrelation, bis das Ausmaß der Korrelation größer ist als der Schwellwert oder bis keine weitere Filtercharakteristik mehr zur Auswahl zur Verfügung steht, und wenn das Ausmaß der Korrelation größer ist als der Schwellwert: Identifizieren eines Überlappungsbereichs zwischen dem einen Bild aus den Quellbildern und einem zuvor ausgewählten Bild in Reaktion auf die Transformation, Bestimmen des Ausmaßes der Überlappung im Überlappungsbereich und Auswählen des einen Bildes zur Verwendung in dem Bildmosaik, wenn das Ausmaß der Überlappung innerhalb eines vorbestimmten Wertebereichs liegt.
  3. Verfahren nach Anspruch 1 oder 2, welches weiterhin den folgenden Schritt beinhaltet: Verschmelzen der ausgerichteten Bilder, um das Bildmosaik zu bilden.
  4. System für das Ausrichten einer Mehrzahl von Quellbildern, welches folgendes beinhaltet: a) Auswahlmittel (716) für das Analysieren der Quellbilder, um einige der auszurichtenden Quellbilder auszuwählen und eine anfängliche Ausrichtung der Quellbilder zu bilden, dadurch gekennzeichnet, daß: die Auswahlmittel (716) Mittel (1110, 1112, 1114, 1116, 1118, 1120, 1122, 1124, 1126) für das Anpassen der ausgewählten Bilder, um ein kombiniertes Ausmaß an Übereinstimmung für alle Paare von sich überlappenden Quellbildern zu optimieren, beinhalten und die Vorrichtung weiterhin beinhaltet: b) Referenzmittel (720), welche Mittel (1512) für das Analysieren der ausgewählten Quellbilder, um ein anfängliches Bild aus den ausgewählten Quellbildern auszuwählen, um ein Koordinatensystem für das Bildmosaik zu erstellen, beinhalten und c) Ausrichtungsmittel (720), welche mindestens entweder (i) Mittel (1514, 201) für das Analysieren der Quellbilder auf Basis des Bildinhalts, (ii) Mittel (1514, 202) für das Analysieren der Quellbilder auf Basis der Bildqualität oder (iii) Mittel (1514, 203) für das Analysieren der Quellbilder auf Basis der Überlappung zwischen den Quellbildern oder Mittel (1516, 1518, 1520, 1522, 1524) für das Ausrichten einiger der ausgewählten Quellbilder mit dem durch das Bild definierten Koordinatensystem beinhalten.
  5. System nach Anspruch 4, wobei die Auswahlmittel (716) weiterhin beinhalten: Mittel (836, 838, 840, 842) für das Berechnen einer Bildkoordinatentransformation zwischen einem der empfangenen Bilder und einem zuvor ausgewählten Bild, welche beinhalten: Mittel (836, 838) für das Filtern des einen Bildes in Übereinstimmung mit einer aus Sätzen jeweils unterschiedlicher Filtercharakteristika ausgewählten Filtercharakteristik, Mittel (840) für das Erzeugen eines Ausmaßes der Korrelation zwischen dem einen gefilterten Bild und dem zuvor ausgewählten Bild und Mittel (842) für das Vergleichen des Ausmaßes der Korrelation mit einem Schwellwert, Mittel (820), die auf die Koordinatentransformation reagieren, für das Identifizieren eines Überlappungsbereichs zwischen einem der empfangenen Bilder und einem zuvor ausgewählten Bild, Mittel (824) für das Bestimmen eines Ausmaßes der Überlappung im Überlappungsbereich und Mittel (822) für das Auswählen des einen Bildes zur Verwendung in dem Bildmosaik, wenn das Ausmaß der Überlappung innerhalb eines vorbestimmten Wertebereichs liegt.
  6. System nach Anspruch 7, welches weiterhin Mittel (103) für das Verschmelzen der ausgerichteten Bilder, um das Bildmosaik zu bilden, beinhaltet.
  7. Computerlesbares Medium, welches ein Programm enthält, das einen Computer dazu bringt, eine Mehrzahl von Quellbildern auszurichten, wobei das Programm den Computer dazu bringt, die folgenden Schritte auszuführen: a) Analysieren der Quellbilder, um einige der auszurichtenden Quellbilder auszuwählen und eine anfängliche Ausrichtung der Quellbilder zu bilden, und b) Analysieren der ausgewählten Quellbilder, um ein Koordinatensystem für ein Bildmosaik zu erstellen, dadurch gekennzeichnet, daß der Schritt des Analysierens der Quellbilder, um einige der auszurichtenden Quellbilder auszuwählen, Bilder auf Basis der Überlappung zwischen den Quellbildern, um ein kombiniertes Ausmaß an Übereinstimmung für alle Paare sich überlappender Quellbilder zu optimieren, auswählt und der Schritt des Analysierens der ausgewählten Quellbilder, um ein Koordinatensystem für das Bildmosaik zu erstellen, ein anfängliches Bild unter den ausgewählten Bildern auswählt, um das Koordinatensystem zu definieren bzw. festzulegen, wobei das Verfahren weiterhin den folgenden Schritt beinhaltet: c) Ausrichten einiger der ausgewählten Quellbilder mit dem Koordinatensystem durch Auswählen eines anfänglichen Bildes, Auswählen nachfolgender Bilder auf Basis zumindest entweder (i) des Bildinhalts, (ii) der Bildqualität oder (iii) der Überlappung zwischen den Quellbildern, und Ausrichten jedes der nachfolgenden ausgewählten Bilder mit dem durch das anfängliche Bild definierten Koordinatensystem.
  8. Computerlesbares Medium nach Anspruch 7, wobei Schritt a) weiterhin die folgenden Schritte beinhaltet: Berechnen einer Bildkoordinatentransformation zwischen einem der empfangenen Bilder und einem zuvor ausgewählten Bild, welches die folgenden Schritte beinhaltet: Filtern des einen Bildes in Übereinstimmung mit einer ausgewählten Filtercharakteristik während jeder Iteration bzw. jedes Schrittes, Erzeugen eines Maßes bzw. Ausmaßes der Korrelation zwischen dem einen gefilterten Bild und dem zuvor ausgewählten Bild und Vergleichen des Ausmaßes der Korrelation mit einem Schwellwert, und wenn das Ausmaß der Korrelation kleiner ist als der Schwellwert, Auswählen einer anderen Filtercharakteristik, und Wiederholen des Filterns, Korrelierens und Vergleichens des Ausmaßes der Korrelation, bis das Ausmaß der Korrelation größer ist als der Schwellwert oder bis keine weitere Filtercharakteristik mehr zur Auswahl zur Verfügung steht, und wenn das Ausmaß der Korrelation größer ist als der Schwellwert: Identifizieren eines Überlappungsbereichs zwischen einem der Quellbilder und einem zuvor ausgewählten Bild in Reaktion auf die Koordinatentransformation, Bestimmen eines Ausmaßes der Überlappung im Überlappungsbereich und Auswählen des einen Bildes zur Verwendung in dem Bildmosaik, wenn das Ausmaß der Überlappung innerhalb eines vorbestimmten Wertebereichs liegt.
  9. Computerlesbares Medium nach Anspruch 7 oder 8, wobei das Programm so ausgestaltet ist, daß es die ausgerichteten Bilder miteinander verschmilzt, um das Bildmosaik zu bilden.
  10. Computerprogramm, welches, wenn es auf einem geeigneten Computersystem ausgeführt wird, alle Schritte des Verfahrens gemäß den Ansprüchen 4, 5 oder 6 ausführt.
DE69735488T 1996-07-17 1997-07-17 Verfahren und vorrichtung zum ausrichten von bildern Expired - Fee Related DE69735488T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US2192596P 1996-07-17 1996-07-17
US21925P 1996-07-17
US08/896,887 US6075905A (en) 1996-07-17 1997-07-16 Method and apparatus for mosaic image construction
US896887 1997-07-16
PCT/US1997/012862 WO1998002844A1 (en) 1996-07-17 1997-07-17 Method and apparatus for mosaic image construction

Publications (2)

Publication Number Publication Date
DE69735488D1 DE69735488D1 (de) 2006-05-11
DE69735488T2 true DE69735488T2 (de) 2006-11-23

Family

ID=26695255

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69735488T Expired - Fee Related DE69735488T2 (de) 1996-07-17 1997-07-17 Verfahren und vorrichtung zum ausrichten von bildern

Country Status (8)

Country Link
US (1) US6075905A (de)
EP (1) EP0979487B1 (de)
JP (1) JP2002514359A (de)
KR (1) KR20000023784A (de)
CA (1) CA2261128A1 (de)
DE (1) DE69735488T2 (de)
ES (1) ES2258795T3 (de)
WO (1) WO1998002844A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021240545A1 (en) * 2020-05-26 2021-12-02 Adarsh Natarajan A method and system for whole slide imaging with low computational complexity

Families Citing this family (544)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2255599C (en) 1996-04-25 2006-09-05 Bioarray Solutions, Llc Light-controlled electrokinetic assembly of particles near surfaces
KR100314344B1 (ko) 1996-05-10 2002-10-31 어플라이드 사이언스 픽션, 인코포레이티드 휘도우선칼라센서및칼라화상감지방법
US6442301B1 (en) 1997-01-06 2002-08-27 Applied Science Fiction, Inc. Apparatus and method for defect channel nulling
US6380539B1 (en) 1997-01-30 2002-04-30 Applied Science Fiction, Inc. Four color trilinear CCD scanning
US5973734A (en) 1997-07-09 1999-10-26 Flashpoint Technology, Inc. Method and apparatus for correcting aspect ratio in a camera graphical user interface
US6128108A (en) * 1997-09-03 2000-10-03 Mgi Software Corporation Method and system for compositing images
US7738015B2 (en) 1997-10-09 2010-06-15 Fotonation Vision Limited Red-eye filter method and apparatus
AU1048399A (en) * 1997-11-10 1999-05-31 Gentech Corporation System and method for generating super-resolution-enhanced mosaic images
US6657667B1 (en) * 1997-11-25 2003-12-02 Flashpoint Technology, Inc. Method and apparatus for capturing a multidimensional array of overlapping images for composite image generation
US6268611B1 (en) * 1997-12-18 2001-07-31 Cellavision Ab Feature-free registration of dissimilar images using a robust similarity metric
US6720997B1 (en) * 1997-12-26 2004-04-13 Minolta Co., Ltd. Image generating apparatus
EP1053644A1 (de) 1998-02-04 2000-11-22 Applied Science Fiction, Inc. Mehrzeilige detektorreihe mit infrarotzeile
JPH11296666A (ja) * 1998-02-16 1999-10-29 Sony Corp 画像接続方法、画像接続装置、並びに、画像接続処理プログラムが格納された記録媒体
AU2990399A (en) 1998-03-13 1999-09-27 Applied Science Fiction, Inc. Image defect correction method
JP3059956B2 (ja) * 1998-03-19 2000-07-04 コナミ株式会社 画像作成装置、画像作成方法及び画像作成プログラムが記録された可読記録媒体
US6522325B1 (en) * 1998-04-02 2003-02-18 Kewazinga Corp. Navigable telepresence method and system utilizing an array of cameras
US6504569B1 (en) * 1998-04-22 2003-01-07 Grass Valley (U.S.), Inc. 2-D extended image generation from 3-D data extracted from a video sequence
US6584235B1 (en) * 1998-04-23 2003-06-24 Micron Technology, Inc. Wide dynamic range fusion using memory look-up
WO1999059099A1 (de) * 1998-05-08 1999-11-18 Siemens Aktiengesellschaft Verfahren zur erstellung eines referenzbildes für mustererkennungsaufgaben
WO1999060522A1 (en) * 1998-05-19 1999-11-25 Sony Computer Entertainment Inc. Image processing apparatus and method, and providing medium
US6535650B1 (en) * 1998-07-21 2003-03-18 Intel Corporation Creating high resolution images
US6633685B1 (en) * 1998-08-05 2003-10-14 Canon Kabushiki Kaisha Method, apparatus, and storage media for image processing
US6469710B1 (en) * 1998-09-25 2002-10-22 Microsoft Corporation Inverse texture mapping using weighted pyramid blending
US6434265B1 (en) * 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
US6870564B1 (en) * 1998-10-02 2005-03-22 Eastman Kodak Company Image processing for improvement of color registration in digital images
CA2317803A1 (en) * 1998-11-05 2000-05-18 Myoung-Jin Kim Method for inspecting inferiority in shape
JP3791216B2 (ja) * 1998-11-10 2006-06-28 コニカミノルタホールディングス株式会社 画像合成処理装置、画像合成処理方法および画像合成処理プログラムを記録したコンピュータ読み取り可能な記録媒体
EP1008956A1 (de) * 1998-12-08 2000-06-14 Synoptics Limited Automatisches Bildmontagesystem
JP3688489B2 (ja) * 1998-12-25 2005-08-31 株式会社東芝 画像認識方法および画像認識装置
US6317141B1 (en) 1998-12-31 2001-11-13 Flashpoint Technology, Inc. Method and apparatus for editing heterogeneous media objects in a digital imaging device
GB9901475D0 (en) 1999-01-22 1999-03-17 Pyrosequencing Ab A method of DNA sequencing
US6437358B1 (en) 1999-02-04 2002-08-20 Applied Science Fiction, Inc. Apparatus and methods for capturing defect data
US6493023B1 (en) 1999-03-12 2002-12-10 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for evaluating the visual quality of processed digital video sequences
US6724946B1 (en) * 1999-03-26 2004-04-20 Canon Kabushiki Kaisha Image processing method, apparatus and storage medium therefor
US7012623B1 (en) * 1999-03-31 2006-03-14 Canon Kabushiki Kaisha Image processing method and apparatus
US6891561B1 (en) * 1999-03-31 2005-05-10 Vulcan Patents Llc Providing visual context for a mobile active visual display of a panoramic region
US6927874B1 (en) * 1999-04-02 2005-08-09 Canon Kabushiki Kaisha Image processing method, apparatus and storage medium therefor
CA2369648A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Limited Image processing device and monitoring system
US7620909B2 (en) * 1999-05-12 2009-11-17 Imove Inc. Interactive image seamer for panoramic images
JP3867883B2 (ja) * 1999-06-01 2007-01-17 株式会社リコー 画像合成処理方法、画像合成処理装置及び記録媒体
WO2001001333A2 (en) * 1999-06-28 2001-01-04 Cognitens, Ltd. Aligning a locally-reconstructed three-dimensional object to a global coordinate system
JP2001034737A (ja) * 1999-07-16 2001-02-09 Minolta Co Ltd 画像合成装置、画像合成処理方法および画像合成処理プログラムを記録したコンピュータ読み取り可能な記録媒体
US6507665B1 (en) * 1999-08-25 2003-01-14 Eastman Kodak Company Method for creating environment map containing information extracted from stereo image pairs
US6798897B1 (en) * 1999-09-05 2004-09-28 Protrack Ltd. Real time image registration, motion detection and background replacement using discrete local motion estimation
JP4224748B2 (ja) * 1999-09-13 2009-02-18 ソニー株式会社 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、記録媒体、並びに画像処理装置
US7477284B2 (en) * 1999-09-16 2009-01-13 Yissum Research Development Company Of The Hebrew University Of Jerusalem System and method for capturing and viewing stereoscopic panoramic images
US6487321B1 (en) 1999-09-16 2002-11-26 Applied Science Fiction Method and system for altering defects in a digital image
AU1962701A (en) 1999-10-08 2001-04-23 Applied Science Fiction, Inc. System and method for correcting defects in digital images through selective fill-in from surrounding areas
EP1226710A1 (de) 1999-10-08 2002-07-31 Applied Science Fiction Verfahren und gerät für bildaufzeichnung und fehlerbehandlung mit differentieller beleuchtung
DE10049752A1 (de) * 1999-10-11 2001-05-10 Heidelberger Druckmasch Ag Verfahren zur Erkennung der Lagegenauigkeit von Register und Falz-oder Schneidkanten an flachen Exemplaren
US6924911B1 (en) 1999-10-12 2005-08-02 Eastman Kodak Company Method and system for multi-sensor signal detection
US6731790B1 (en) * 1999-10-19 2004-05-04 Agfa-Gevaert Method of enhancing color images
US6711302B1 (en) 1999-10-20 2004-03-23 Eastman Kodak Company Method and system for altering defects in digital image
US6650704B1 (en) 1999-10-25 2003-11-18 Irvine Sensors Corporation Method of producing a high quality, high resolution image from a sequence of low quality, low resolution images that are undersampled and subject to jitter
US6829383B1 (en) * 2000-04-28 2004-12-07 Canon Kabushiki Kaisha Stochastic adjustment of differently-illuminated images
US6714672B1 (en) * 1999-10-27 2004-03-30 Canon Kabushiki Kaisha Automated stereo fundus evaluation
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US7006111B1 (en) * 1999-11-09 2006-02-28 Intel Corporation Digital image stitching
US6694064B1 (en) 1999-11-19 2004-02-17 Positive Systems, Inc. Digital aerial image mosaic method and apparatus
US6683995B2 (en) 1999-12-23 2004-01-27 Eastman Kodak Company Method and apparatus for correcting large defects in digital images
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
US7164511B2 (en) * 1999-12-29 2007-01-16 Eastman Kodak Company Distinguishing positive and negative films system and method
US6704458B2 (en) 1999-12-29 2004-03-09 Eastman Kodak Company Method and apparatus for correcting heavily damaged images
US6862117B1 (en) 1999-12-30 2005-03-01 Eastman Kodak Company Method and apparatus for reducing the effect of bleed-through on captured images
US6720560B1 (en) 1999-12-30 2004-04-13 Eastman Kodak Company Method and apparatus for scanning images
DE60142678D1 (de) * 2000-01-27 2010-09-09 Applied Precision Inc Vefahren zur flachfeldbildausglättung und zusamensetzung von teilbildern
US6798923B1 (en) * 2000-02-04 2004-09-28 Industrial Technology Research Institute Apparatus and method for providing panoramic images
JP4209061B2 (ja) * 2000-02-09 2009-01-14 富士フイルム株式会社 画像処理符号復号化方法および画像処理符号復号化システム、画像処理符号化装置および画像処理復号化装置、並びに記録媒体
US7084869B2 (en) * 2000-03-31 2006-08-01 Massachusetts Institute Of Technology Methods and apparatus for detecting and correcting penetration between objects
GB2363020B (en) * 2000-04-07 2004-08-18 Discreet Logic Inc Processing image data
DE10018143C5 (de) * 2000-04-12 2012-09-06 Oerlikon Trading Ag, Trübbach DLC-Schichtsystem sowie Verfahren und Vorrichtung zur Herstellung eines derartigen Schichtsystems
US6930703B1 (en) * 2000-04-29 2005-08-16 Hewlett-Packard Development Company, L.P. Method and apparatus for automatically capturing a plurality of images during a pan
US7346184B1 (en) * 2000-05-02 2008-03-18 Digimarc Corporation Processing methods combining multiple frames of image data
US6546152B1 (en) * 2000-05-04 2003-04-08 Syscan Technology (Shenzhen) Co. Limited Method and apparatus for providing images in portable 2-D scanners
IL136080A0 (en) * 2000-05-11 2001-05-20 Yeda Res & Dev Sequence-to-sequence alignment
US6411742B1 (en) * 2000-05-16 2002-06-25 Adobe Systems Incorporated Merging images to form a panoramic image
WO2001095109A2 (en) * 2000-06-02 2001-12-13 Koninklijke Philips Electronics N.V. Method and apparatus for merging images
US6834128B1 (en) * 2000-06-16 2004-12-21 Hewlett-Packard Development Company, L.P. Image mosaicing system and method adapted to mass-market hand-held digital cameras
US7892854B2 (en) 2000-06-21 2011-02-22 Bioarray Solutions, Ltd. Multianalyte molecular analysis using application-specific random particle arrays
US9709559B2 (en) 2000-06-21 2017-07-18 Bioarray Solutions, Ltd. Multianalyte molecular analysis using application-specific random particle arrays
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US6813391B1 (en) * 2000-07-07 2004-11-02 Microsoft Corp. System and method for exposure compensation
US6788333B1 (en) * 2000-07-07 2004-09-07 Microsoft Corporation Panoramic video
JP2002109555A (ja) * 2000-07-24 2002-04-12 Mitsubishi Electric Corp 仮想美容整形システム及び仮想美容整形方法
US7313289B2 (en) * 2000-08-30 2007-12-25 Ricoh Company, Ltd. Image processing method and apparatus and computer-readable storage medium using improved distortion correction
US7095905B1 (en) 2000-09-08 2006-08-22 Adobe Systems Incorporated Merging images to form a panoramic image
US20020106134A1 (en) * 2000-09-22 2002-08-08 Dundon Thomas A. Multiple-orientation image defect detection and correction
US6750435B2 (en) * 2000-09-22 2004-06-15 Eastman Kodak Company Lens focusing device, system and method for use with multiple light wavelengths
US6445832B1 (en) * 2000-10-10 2002-09-03 Lockheed Martin Corporation Balanced template tracker for tracking an object image sequence
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US20080040227A1 (en) * 2000-11-03 2008-02-14 At&T Corp. System and method of marketing using a multi-media communication system
US6976082B1 (en) 2000-11-03 2005-12-13 At&T Corp. System and method for receiving multi-media messages
US7203648B1 (en) 2000-11-03 2007-04-10 At&T Corp. Method for sending multi-media messages with customized audio
US6963839B1 (en) 2000-11-03 2005-11-08 At&T Corp. System and method of controlling sound in a multi-media communication application
US7091976B1 (en) 2000-11-03 2006-08-15 At&T Corp. System and method of customizing animated entities for use in a multi-media communication application
US6990452B1 (en) 2000-11-03 2006-01-24 At&T Corp. Method for sending multi-media messages using emoticons
US6898332B2 (en) * 2000-11-15 2005-05-24 Seiko Epson Corporation Image processing device and image processing method
US7602904B2 (en) * 2000-11-27 2009-10-13 Rsa Security, Inc. Order invariant fuzzy commitment system
IL139995A (en) 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
ATE552572T1 (de) 2000-12-01 2012-04-15 Imax Corp Verfahren und vorrichtung zum erzeugen hochauflösender bilder
US6650396B2 (en) 2000-12-04 2003-11-18 Hytechnology, Inc. Method and processor for stereo cylindrical imaging
CA2436607A1 (en) * 2000-12-05 2002-06-13 Yeda Research And Development Co. Ltd. Apparatus and method for alignment of spatial or temporal non-overlapping image sequences
US6975352B2 (en) * 2000-12-18 2005-12-13 Xerox Corporation Apparatus and method for capturing a composite digital image with regions of varied focus and magnification
KR100407685B1 (ko) * 2001-01-12 2003-12-01 윤경현 컴퓨터를 이용한 색종이 모자이크 구현 방법
FR2821960A1 (fr) * 2001-03-06 2002-09-13 7Eme Sens Soc Procede de presentation de differentes configurations d'un meme sujet sur un meme ecran d'ordinateur
US7103234B2 (en) * 2001-03-30 2006-09-05 Nec Laboratories America, Inc. Method for blind cross-spectral image registration
US6987892B2 (en) * 2001-04-19 2006-01-17 Eastman Kodak Company Method, system and software for correcting image defects
US7006707B2 (en) * 2001-05-03 2006-02-28 Adobe Systems Incorporated Projecting images onto a surface
KR100425447B1 (ko) * 2001-05-10 2004-03-30 삼성전자주식회사 명도 보정 및 선택적 결함 검출 방법 및 이를 기록한 기록매체
US7046401B2 (en) * 2001-06-01 2006-05-16 Hewlett-Packard Development Company, L.P. Camera-based document scanning system using multiple-pass mosaicking
US20040201698A1 (en) * 2001-06-08 2004-10-14 Keenan Vaughn E. Camera-based system for capturing images of a target area
US7154515B2 (en) * 2001-06-15 2006-12-26 Perkinelmer, Inc. Method and apparatus for reducing printing artifacts of stitched images
US7262063B2 (en) 2001-06-21 2007-08-28 Bio Array Solutions, Ltd. Directed assembly of functional heterostructures
AU2002350949A1 (en) * 2001-06-25 2003-01-08 Redhawk Vision Inc. Video event capture, storage and processing method and apparatus
US6845178B1 (en) * 2001-06-27 2005-01-18 Electro Scientific Industries, Inc. Automatic separation of subject pixels using segmentation based on multiple planes of measurement data
EP1273928A1 (de) * 2001-07-06 2003-01-08 Leica Geosystems AG Verfahren und Vorrichtung zur Unterdrückung elektromagnetischer Hintergrundstrahlung in einem Bild
JP2005531935A (ja) * 2001-07-12 2005-10-20 アトルア テクノロジーズ インコーポレイテッド 複数の部分的な生体計測によるフレーム走査からの生体画像アセンブリのための方法及びシステム
US6947059B2 (en) * 2001-08-10 2005-09-20 Micoy Corporation Stereoscopic panoramic image capture device
US7119811B2 (en) * 2001-08-10 2006-10-10 Pixia Corp. Image display system
US7103236B2 (en) * 2001-08-28 2006-09-05 Adobe Systems Incorporated Methods and apparatus for shifting perspective in a composite image
EP1436799A4 (de) * 2001-09-13 2008-07-30 Pixia Corp Bildanzeigesystem
US6912695B2 (en) 2001-09-13 2005-06-28 Pixia Corp. Data storage and retrieval system and method
US7734075B2 (en) * 2001-10-04 2010-06-08 Siemens Medical Solutions Usa, Inc. Contrast-invariant registration of cardiac and renal magnetic resonance perfusion images
JP2003115050A (ja) * 2001-10-04 2003-04-18 Sony Corp 映像データ処理装置及び映像データ処理方法、データ配信装置及びデータ配信方法、データ受信装置及びデータ受信方法、記憶媒体、並びにコンピュータ・プログラム
KR20040068122A (ko) 2001-10-15 2004-07-30 바이오어레이 솔루션스 리미티드 공동 검색과 효소-매개된 탐지에 의한 다형성 좌위의 다중분석
US20030076982A1 (en) * 2001-10-18 2003-04-24 Sawhney Harpreet S. Multiple hypothesis method of optical flow
US7671861B1 (en) * 2001-11-02 2010-03-02 At&T Intellectual Property Ii, L.P. Apparatus and method of customizing animated entities for use in a multi-media communication application
US20030086596A1 (en) * 2001-11-07 2003-05-08 Medical Metrics, Inc. Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae
US7010158B2 (en) * 2001-11-13 2006-03-07 Eastman Kodak Company Method and apparatus for three-dimensional scene modeling and reconstruction
JP3975736B2 (ja) * 2001-12-07 2007-09-12 ソニー株式会社 画像処理装置及び画像処理方法、記憶媒体、並びにコンピュータ・プログラム
US7257252B2 (en) * 2001-12-12 2007-08-14 Sony Corporation Voting-based video background mosaicking
US7277580B2 (en) * 2001-12-12 2007-10-02 Sony Corporation Multiple thresholding for video frame segmentation
KR20030059399A (ko) * 2001-12-29 2003-07-10 엘지전자 주식회사 모자이크 영상 생성장치 및 방법과 모자이크 영상 기반동영상 재생방법
US6947607B2 (en) * 2002-01-04 2005-09-20 Warner Bros. Entertainment Inc. Reduction of differential resolution of separations
US6993204B1 (en) * 2002-01-04 2006-01-31 Pixon Llc High speed signal enhancement using pixons
US7127125B2 (en) * 2002-01-04 2006-10-24 Warner Bros. Entertainment Inc. Registration of separations
US7092584B2 (en) 2002-01-04 2006-08-15 Time Warner Entertainment Company Lp Registration of separations
US7417648B2 (en) 2002-01-07 2008-08-26 Samsung Electronics Co. Ltd., Color flat panel display sub-pixel arrangements and layouts for sub-pixel rendering with split blue sub-pixels
US7492379B2 (en) * 2002-01-07 2009-02-17 Samsung Electronics Co., Ltd. Color flat panel display sub-pixel arrangements and layouts for sub-pixel rendering with increased modulation transfer function response
SE520949C2 (sv) * 2002-01-15 2003-09-16 Sven-Aake Afsenius Digitalkamera med sökare avsedd för skärpedjupsförbättrad avbildning
US6762769B2 (en) * 2002-01-23 2004-07-13 Microsoft Corporation System and method for real-time texture synthesis using patch-based sampling
US7193626B2 (en) * 2002-03-08 2007-03-20 Topcon Corporation Device and method for displaying stereo image
US7856055B2 (en) 2002-03-13 2010-12-21 Imax Corporation Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data
CA2380105A1 (en) * 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
AU2003226047A1 (en) * 2002-04-10 2003-10-27 Pan-X Imaging, Inc. A digital imaging system
US7006706B2 (en) * 2002-04-12 2006-02-28 Hewlett-Packard Development Company, L.P. Imaging apparatuses, mosaic image compositing methods, video stitching methods and edgemap generation methods
WO2003092276A1 (fr) * 2002-04-25 2003-11-06 Sony Corporation Appareil, procede et logiciel de traitement d'image
JP3982316B2 (ja) * 2002-04-25 2007-09-26 ソニー株式会社 画像処理装置と画像処理方法及び画像処理プログラム
US20040070616A1 (en) * 2002-06-02 2004-04-15 Hildebrandt Peter W. Electronic whiteboard
US7154140B2 (en) * 2002-06-21 2006-12-26 Micron Technology, Inc. Write once read only memory with large work function floating gates
WO2004001667A2 (en) * 2002-06-21 2003-12-31 The Trustees Of Columbia University In The City Of New York Systems and methods for de-blurring motion blurred images
US7259784B2 (en) * 2002-06-21 2007-08-21 Microsoft Corporation System and method for camera color calibration and image stitching
US7184609B2 (en) * 2002-06-28 2007-02-27 Microsoft Corp. System and method for head size equalization in 360 degree panoramic images
US7243239B2 (en) * 2002-06-28 2007-07-10 Microsoft Corporation Click passwords
DK1519681T3 (da) * 2002-07-09 2007-04-10 Aecc Entpr Ltd Fremgangsmåde til billeddannelse af den relative bevægelse af skeletstykker
FR2843252A1 (fr) * 2002-07-30 2004-02-06 Thomson Licensing Sa Procede de compression de donnees numeriques d'une sequence video comportant des plans alternes
SE0202342D0 (sv) * 2002-07-31 2002-07-31 Scalado Ab System and method for displaying digital images linked together to enable navigation through views
US7893957B2 (en) * 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
US8483960B2 (en) 2002-09-20 2013-07-09 Visual Intelligence, LP Self-calibrated, remote imaging and data processing system
US8994822B2 (en) 2002-08-28 2015-03-31 Visual Intelligence Lp Infrastructure mapping system and method
EP1394727B1 (de) * 2002-08-30 2011-10-12 MVTec Software GmbH Auf hierarchischen Gliedern basierte Erkennung von Gegenständen
US6928194B2 (en) * 2002-09-19 2005-08-09 M7 Visual Intelligence, Lp System for mosaicing digital ortho-images
JP4115220B2 (ja) * 2002-09-19 2008-07-09 キヤノン株式会社 撮像装置
USRE49105E1 (en) 2002-09-20 2022-06-14 Vi Technologies, Llc Self-calibrated, remote imaging and data processing system
JP2004118786A (ja) * 2002-09-30 2004-04-15 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
US7171057B1 (en) * 2002-10-16 2007-01-30 Adobe Systems Incorporated Image blending using non-affine interpolation
US7049073B2 (en) 2002-10-30 2006-05-23 The University Of Chicago Double stranded nucleic acid biochips
US7526114B2 (en) 2002-11-15 2009-04-28 Bioarray Solutions Ltd. Analysis, secure access to, and transmission of array images
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US7450785B2 (en) * 2003-01-22 2008-11-11 Hewlett-Packard Development Company, L.P. Method and device for sorting similar images
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US7684624B2 (en) * 2003-03-03 2010-03-23 Smart Technologies Ulc System and method for capturing images of a target area on which information is recorded
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
EP1460557A3 (de) * 2003-03-12 2006-04-05 Eastman Kodak Company Manuelle und automatische Ausrichtung von Seiten
JP2004334843A (ja) * 2003-04-15 2004-11-25 Seiko Epson Corp 複数の画像から画像を合成する方法
EP1538562A4 (de) * 2003-04-17 2005-08-10 Seiko Epson Corp Erzeugung eines standbildes aus mehreren einzelbildern
US7549170B2 (en) * 2003-04-30 2009-06-16 Microsoft Corporation System and method of inkblot authentication
WO2004104172A2 (en) * 2003-05-15 2004-12-02 Bioarray Solutions, Ltd. Hybridization-mediated analysis of polymorphisms
US7260258B2 (en) * 2003-06-12 2007-08-21 Fuji Xerox Co., Ltd. Methods for multisource color normalization
US8036458B2 (en) 2007-11-08 2011-10-11 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
US7920723B2 (en) 2005-11-18 2011-04-05 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7970182B2 (en) 2005-11-18 2011-06-28 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7336821B2 (en) 2006-02-14 2008-02-26 Fotonation Vision Limited Automatic detection and correction of non-red eye flash defects
US7689009B2 (en) 2005-11-18 2010-03-30 Fotonation Vision Ltd. Two stage detection for photographic eye artifacts
JP2005039785A (ja) * 2003-06-30 2005-02-10 Seiko Epson Corp 画像処理装置、方法及びプログラム
FR2857133A1 (fr) * 2003-07-03 2005-01-07 Thomson Licensing Sa Procede de generation de flou
US9412007B2 (en) 2003-08-05 2016-08-09 Fotonation Limited Partial face detector red-eye filter method and apparatus
US8520093B2 (en) 2003-08-05 2013-08-27 DigitalOptics Corporation Europe Limited Face tracker and partial face tracker for red-eye filter method and apparatus
EP1654703B1 (de) * 2003-08-07 2007-06-20 Koninklijke Philips Electronics N.V. Detektion von grafik-überlagerungen
US7643703B2 (en) * 2003-09-03 2010-01-05 Battelle Energy Alliance, Llc Image change detection systems, methods, and articles of manufacture
US20050084179A1 (en) * 2003-09-04 2005-04-21 Keith Hanna Method and apparatus for performing iris recognition from an image
JP4196216B2 (ja) * 2003-09-08 2008-12-17 日本電気株式会社 画像合成システム、画像合成方法及びプログラム
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
WO2005029705A2 (en) 2003-09-18 2005-03-31 Bioarray Solutions, Ltd. Number coding for identification of subtypes of coded types of solid phase carriers
CA2539824C (en) 2003-09-22 2015-02-03 Xinwen Wang Surface immobilized polyelectrolyte with multiple functional groups capable of covalently bonding to biomolecules
US20050063608A1 (en) * 2003-09-24 2005-03-24 Ian Clarke System and method for creating a panorama image from a plurality of source images
JP4180083B2 (ja) * 2003-09-26 2008-11-12 シャープ株式会社 パノラマ画像作成装置及びパノラマ画像撮影装置
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7746375B2 (en) * 2003-10-28 2010-06-29 Koninklijke Philips Electronics N.V. Digital camera with panorama or mosaic functionality
AU2004286252A1 (en) 2003-10-28 2005-05-12 Bioarray Solutions Ltd. Optimization of gene expression analysis using immobilized capture probes
US7525526B2 (en) * 2003-10-28 2009-04-28 Samsung Electronics Co., Ltd. System and method for performing image reconstruction and subpixel rendering to effect scaling for multi-mode display
WO2005045060A2 (en) 2003-10-29 2005-05-19 Bioarray Solutions, Ltd. Multiplexed nucleic acid analysis by fragmentation of double-stranded dna
EP1684506A4 (de) * 2003-11-11 2008-06-04 Seiko Epson Corp Bildverarbeitungseinrichtung, bildverarbeitungsverfahren, programm dafür und aufzeichnungsmedium
US20050111753A1 (en) * 2003-11-20 2005-05-26 Yissum Research Development Company Of The Hebrew University Of Jerusalem Image mosaicing responsive to camera ego motion
US7506267B2 (en) * 2003-12-23 2009-03-17 Intel Corporation Compose rate reduction for displays
US7616220B2 (en) * 2003-12-23 2009-11-10 Intel Corporation Spatio-temporal generation of motion blur
KR20070007059A (ko) 2003-12-26 2007-01-12 미코이 코포레이션 다중-차원 촬영 장치, 시스템, 및 방법
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7232986B2 (en) * 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
US7065449B2 (en) * 2004-03-05 2006-06-20 Bell Geospace, Inc. Method and system for evaluating geophysical survey data
US7966563B2 (en) * 2004-03-12 2011-06-21 Vanbree Ken System for organizing and displaying registered images
US9826159B2 (en) 2004-03-25 2017-11-21 Clear Imaging Research, Llc Method and apparatus for implementing a digital graduated filter for an imaging apparatus
WO2005093654A2 (en) 2004-03-25 2005-10-06 Fatih Ozluturk Method and apparatus to correct digital image blur due to motion of subject or imaging device
US10721405B2 (en) 2004-03-25 2020-07-21 Clear Imaging Research, Llc Method and apparatus for implementing a digital graduated filter for an imaging apparatus
US7697785B2 (en) * 2004-03-31 2010-04-13 Fuji Xerox Co., Ltd. Generating a highly condensed visual summary
US7813589B2 (en) * 2004-04-01 2010-10-12 Hewlett-Packard Development Company, L.P. System and method for blending images into a single image
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
US20050285947A1 (en) * 2004-06-21 2005-12-29 Grindstaff Gene A Real-time stabilization
GB2415566B (en) * 2004-06-24 2006-09-20 Hewlett Packard Development Co Image processing
US7693329B2 (en) * 2004-06-30 2010-04-06 Lexmark International, Inc. Bound document scanning method and apparatus
KR101042638B1 (ko) * 2004-07-27 2011-06-20 삼성전자주식회사 파노라마 영상 생성을 위한 디지털 촬상장치 및 그 생성방법
US7848889B2 (en) 2004-08-02 2010-12-07 Bioarray Solutions, Ltd. Automated analysis of multiplexed probe-target interaction patterns: pattern matching and allele identification
US20070103544A1 (en) * 2004-08-26 2007-05-10 Naofumi Nakazawa Panorama image creation device and panorama image imaging device
US7512260B2 (en) * 2004-09-06 2009-03-31 Omron Corporation Substrate inspection method and apparatus
DE102004049676A1 (de) * 2004-10-12 2006-04-20 Infineon Technologies Ag Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium
JP2006115078A (ja) * 2004-10-13 2006-04-27 Matsushita Electric Ind Co Ltd 画像データの信号処理装置及びその方法
US7852370B2 (en) * 2004-11-05 2010-12-14 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for spatio-temporal video warping
US20060098897A1 (en) * 2004-11-10 2006-05-11 Agfa-Gevaert Method of superimposing images
US7756358B2 (en) * 2004-11-30 2010-07-13 Hewlett-Packard Development Company, L.P. System and method of aligning images
US7327902B2 (en) * 2004-12-10 2008-02-05 Radiological Imaging Technology, Inc. Optimizing image alignment
US7963448B2 (en) * 2004-12-22 2011-06-21 Cognex Technology And Investment Corporation Hand held machine vision method and apparatus
US9552506B1 (en) 2004-12-23 2017-01-24 Cognex Technology And Investment Llc Method and apparatus for industrial identification mark verification
FR2880453A1 (fr) * 2005-01-06 2006-07-07 Thomson Licensing Sa Procede et dispositif de traitement de mosaique d'images
WO2006074310A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
BRPI0606477A2 (pt) 2005-01-07 2009-06-30 Gesturetek Inc sensor de inclinação baseado em fluxo ótico
WO2006074289A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Detecting and tracking objects in images
JP4689684B2 (ja) 2005-01-21 2011-05-25 ジェスチャー テック,インコーポレイテッド 動作に基づくトラッキング
US7653264B2 (en) * 2005-03-04 2010-01-26 The Regents Of The University Of Michigan Method of determining alignment of images in high dimensional feature space
US7953983B2 (en) 2005-03-08 2011-05-31 Microsoft Corporation Image or pictographic based computer login systems and methods
US20060215934A1 (en) * 2005-03-25 2006-09-28 Yissum Research Development Co of the Hebrew University of Jerusalem Israeli Co Online registration of dynamic scenes using video extrapolation
US8645870B2 (en) 2005-03-31 2014-02-04 Adobe Systems Incorporated Preview cursor for image editing
US7872665B2 (en) * 2005-05-13 2011-01-18 Micoy Corporation Image capture and processing
WO2006124935A2 (en) * 2005-05-17 2006-11-23 Gesturetek, Inc. Orientation-sensitive signal output
US8486629B2 (en) 2005-06-01 2013-07-16 Bioarray Solutions, Ltd. Creation of functionalized microparticle libraries by oligonucleotide ligation or elongation
US7593599B2 (en) * 2005-06-30 2009-09-22 Corning Incorporated Method of assembling a composite data map having a closed-form solution
US7817160B2 (en) * 2005-06-30 2010-10-19 Microsoft Corporation Sub-pass correction using neighborhood matching
US8219940B2 (en) * 2005-07-06 2012-07-10 Semiconductor Insights Inc. Method and apparatus for removing dummy features from a data structure
US8194946B2 (en) * 2005-07-28 2012-06-05 Fujifilm Corporation Aligning apparatus, aligning method, and the program
US20070031063A1 (en) * 2005-08-05 2007-02-08 Hui Zhou Method and apparatus for generating a composite image from a set of images
US20070081081A1 (en) * 2005-10-07 2007-04-12 Cheng Brett A Automated multi-frame image capture for panorama stitching using motion sensor
US7539349B2 (en) * 2005-10-25 2009-05-26 Hewlett-Packard Development Company, L.P. Clear image using pixel voting
US7801351B2 (en) * 2005-11-22 2010-09-21 General Electric Company Method and system to manage digital medical images
US7660464B1 (en) 2005-12-22 2010-02-09 Adobe Systems Incorporated User interface for high dynamic range merge image selection
US20070165007A1 (en) * 2006-01-13 2007-07-19 Gerald Morrison Interactive input system
US7639897B2 (en) * 2006-01-24 2009-12-29 Hewlett-Packard Development Company, L.P. Method and apparatus for composing a panoramic photograph
EP1977395B1 (de) 2006-01-27 2018-10-24 Imax Corporation Verfahren und system zum digitalen remastering von 2d- und 3d-filmen zur steigerung von deren visueller qualität
CN101416218A (zh) * 2006-03-29 2009-04-22 皇家飞利浦电子股份有限公司 用于提高图像信号视觉质量的方法和系统
WO2007122911A1 (ja) * 2006-03-30 2007-11-01 Nec Corporation 画像処理装置、画像処理システム、画像処理方法および画像処理用プログラム
FR2899344B1 (fr) * 2006-04-03 2008-08-15 Eads Astrium Sas Soc Par Actio Procede de restitution de mouvements de la ligne de visee d'un instrument optique
US7860343B2 (en) * 2006-04-10 2010-12-28 Nokia Corporation Constructing image panorama using frame selection
US8676293B2 (en) * 2006-04-13 2014-03-18 Aecc Enterprises Ltd. Devices, systems and methods for measuring and evaluating the motion and function of joint structures and associated muscles, determining suitability for orthopedic intervention, and evaluating efficacy of orthopedic intervention
US20090153647A1 (en) * 2006-04-24 2009-06-18 Nxp B.V. Method and device for generating a panoramic image from a video sequence
US20100245571A1 (en) * 2006-04-24 2010-09-30 Northrop Grumman Corporation Global hawk image mosaic
US7912296B1 (en) 2006-05-02 2011-03-22 Google Inc. Coverage mask generation for large images
US7742659B2 (en) * 2006-05-09 2010-06-22 Arcsoft, Inc. Edge based auto order supporting rotation algorithm
US7965902B1 (en) 2006-05-19 2011-06-21 Google Inc. Large-scale image processing using mass parallelization techniques
KR101341265B1 (ko) * 2006-05-29 2013-12-12 네브테크 비. 브이. 이미지 센서의 이미지 데이터 세트를 처리하는 방법과 시스템, 그 컴퓨터 프로그램 및 그 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체
EP2033142B1 (de) 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern
US8762493B1 (en) 2006-06-22 2014-06-24 Google Inc. Hierarchical spatial data structure and 3D index data versioning for generating packet data
CN102685533B (zh) 2006-06-23 2015-03-18 图象公司 对2d电影进行转换用于立体3d显示的方法和系统
US7817161B2 (en) 2006-06-26 2010-10-19 Microsoft Corporation Texture synthesis using dimensionality-reduced appearance space
US8108176B2 (en) 2006-06-29 2012-01-31 Cognex Corporation Method and apparatus for verifying two dimensional mark quality
US7733350B2 (en) * 2006-06-30 2010-06-08 Microsoft Corporation Anisometric texture synthesis
US7643034B2 (en) * 2006-06-30 2010-01-05 Microsoft Corporation Synthesis of advecting texture using adaptive regeneration
WO2008004222A2 (en) 2006-07-03 2008-01-10 Yissum Research Development Company Of The Hebrew University Of Jerusalem Computer image-aided method and system for guiding instruments through hollow cavities
US7984854B2 (en) * 2006-07-17 2011-07-26 Cognex Corporation Method and apparatus for multiplexed symbol decoding
US8098330B2 (en) * 2006-07-28 2012-01-17 International Business Machines Corporation Mapping of presentation material
DE602007007340D1 (de) * 2006-08-21 2010-08-05 Sti Medical Systems Llc Computergestützte analyse mit hilfe von videodaten aus endoskopen
US7945117B2 (en) * 2006-08-22 2011-05-17 Siemens Medical Solutions Usa, Inc. Methods and systems for registration of images
US9224145B1 (en) 2006-08-30 2015-12-29 Qurio Holdings, Inc. Venue based digital rights using capture device with digital watermarking capability
KR100790887B1 (ko) * 2006-09-22 2008-01-02 삼성전자주식회사 영상 처리장치 및 방법
US8144919B2 (en) * 2006-09-22 2012-03-27 Fuji Xerox Co., Ltd. Annealing algorithm for non-rectangular shaped stained glass collages
JP4899803B2 (ja) * 2006-11-06 2012-03-21 ソニー株式会社 画像処理装置、カメラ装置、画像処理方法、およびプログラム
US7714892B2 (en) * 2006-11-08 2010-05-11 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Systems, devices and methods for digital camera image stabilization
US7778487B2 (en) * 2006-11-19 2010-08-17 Microsoft Corp. Region selection for image compositing
KR100856411B1 (ko) * 2006-12-01 2008-09-04 삼성전자주식회사 조도 보상 방법 및 그 장치와 그 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체
CN101191719A (zh) * 2006-12-01 2008-06-04 鸿富锦精密工业(深圳)有限公司 影像焦点合成系统及方法
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
US7995861B2 (en) * 2006-12-13 2011-08-09 Adobe Systems Incorporated Selecting a reference image for images to be joined
WO2008070949A1 (en) * 2006-12-13 2008-06-19 Dolby Laboratories Licensing Corporation Methods and apparatus for stitching digital images
US8169478B2 (en) * 2006-12-14 2012-05-01 Cognex Corporation Method and apparatus for calibrating a mark verifier
US7865285B2 (en) * 2006-12-27 2011-01-04 Caterpillar Inc Machine control system and method
JP2010515170A (ja) * 2006-12-29 2010-05-06 ジェスチャー テック,インコーポレイテッド 機能強化したインタラクティブシステムを用いた仮想オブジェクトの操作
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
JP2010520567A (ja) 2007-03-05 2010-06-10 フォトネーション ビジョン リミテッド 顔の位置および向きを用いた赤目の誤検出フィルタリング
US7895533B2 (en) * 2007-03-13 2011-02-22 Apple Inc. Interactive image thumbnails
CN101275831B (zh) * 2007-03-26 2011-06-22 鸿富锦精密工业(深圳)有限公司 图像离线处理系统及方法
US7738017B2 (en) * 2007-03-27 2010-06-15 Aptina Imaging Corporation Method and apparatus for automatic linear shift parallax correction for multi-array image systems
US8200039B2 (en) * 2007-04-05 2012-06-12 Adobe Systems Incorporated Laying out multiple images
EP2135155B1 (de) 2007-04-11 2013-09-18 Next Holdings, Inc. Touchscreen-system mit gleit- und klick-eingabeverfahren
SI3758380T1 (sl) 2007-04-12 2021-04-30 Dolby International AB Apollo Building, 3E Razpostavljanje pri kodiranju in dekodiranju videa
RU2487488C2 (ru) * 2007-06-26 2013-07-10 Конинклейке Филипс Электроникс Н.В. Способ и система для кодирования сигнала трехмерного видео, инкапсулированный сигнал трехмерного видео, способ и система для декодера сигнала трехмерного видео
US8717412B2 (en) * 2007-07-18 2014-05-06 Samsung Electronics Co., Ltd. Panoramic image production
US8068693B2 (en) * 2007-07-18 2011-11-29 Samsung Electronics Co., Ltd. Method for constructing a composite image
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
JP4377932B2 (ja) * 2007-07-26 2009-12-02 株式会社モルフォ パノラマ画像生成装置およびプログラム
US8031875B1 (en) 2007-08-09 2011-10-04 Emc Corporation Key distribution in unidirectional channels with applications to RFID
WO2009026015A1 (en) * 2007-08-20 2009-02-26 Edward Acworth Method and apparatus for making a mosaic
CN101802760B (zh) 2007-08-30 2013-03-20 奈克斯特控股有限公司 具有改进照明的光学触摸屏
KR20100075460A (ko) * 2007-08-30 2010-07-02 넥스트 홀딩스 인코포레이티드 저 프로파일 터치 패널 시스템
US8270764B1 (en) * 2007-09-21 2012-09-18 Adobe Systems Incorporated Replacing pixels within a boundary area of a base image to generate a composite image
US8437514B2 (en) * 2007-10-02 2013-05-07 Microsoft Corporation Cartoon face generation
US20090099481A1 (en) 2007-10-10 2009-04-16 Adam Deitz Devices, Systems and Methods for Measuring and Evaluating the Motion and Function of Joints and Associated Muscles
US9734376B2 (en) 2007-11-13 2017-08-15 Cognex Corporation System and method for reading patterns using multiple image frames
US8131113B1 (en) 2007-11-29 2012-03-06 Adobe Systems Incorporated Method and apparatus for estimating rotation, focal lengths and radial distortion in panoramic image stitching
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
CN101482968B (zh) * 2008-01-07 2013-01-23 日电(中国)有限公司 图像处理方法和设备
US8126858B1 (en) 2008-01-23 2012-02-28 A9.Com, Inc. System and method for delivering content to a communication device in a content delivery system
US8098957B2 (en) * 2008-02-13 2012-01-17 Qualcomm Incorporated Shared block comparison architechture for image registration and video coding
US8831379B2 (en) * 2008-04-04 2014-09-09 Microsoft Corporation Cartoon personalization
US8189959B2 (en) * 2008-04-17 2012-05-29 Microsoft Corporation Image blending using multi-splines
US20090278816A1 (en) * 2008-05-06 2009-11-12 Next Holdings Limited Systems and Methods For Resolving Multitouch Scenarios Using Software Filters
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US8472744B2 (en) * 2008-05-27 2013-06-25 Nikon Corporation Device and method for estimating whether an image is blurred
JP5554776B2 (ja) * 2008-05-30 2014-07-23 ジーイー・ヘルスケア・バイオサイエンス・コーポレイション 1以上のデフォーカス画像又は低コントラスト対雑音比画像を検出し除去するシステム及び方法
US20090309853A1 (en) * 2008-06-13 2009-12-17 Polyvision Corporation Electronic whiteboard system and assembly with optical detection elements
US8588547B2 (en) 2008-08-05 2013-11-19 Pictometry International Corp. Cut-line steering methods for forming a mosaic image of a geographical area
US8170278B2 (en) * 2008-08-06 2012-05-01 Sri International System and method for detecting and tracking an object of interest in spatio-temporal space
US9307165B2 (en) * 2008-08-08 2016-04-05 Qualcomm Technologies, Inc. In-camera panorama image stitching assistance
US10332226B2 (en) * 2008-08-13 2019-06-25 Greentire Energy Llc Techniques for locating and operating gasification plant having predominately scrap tire rubber as feedstock
WO2010025309A1 (en) * 2008-08-28 2010-03-04 Zoran Corporation Robust fast panorama stitching in mobile phones or cameras
JP2010068193A (ja) * 2008-09-10 2010-03-25 Fujifilm Corp 画像処理装置、撮像装置、画像処理方法及びプログラム
US8290346B2 (en) 2008-09-25 2012-10-16 Pixia Corp. Large format video archival, storage, and retrieval system and method
US8238694B2 (en) * 2008-10-03 2012-08-07 Microsoft Corporation Alignment of sharp and blurred images based on blur kernel sparseness
GB2464967A (en) * 2008-10-31 2010-05-05 Hewlett Packard Development Co Adding a Data Item to a Composition of Data Items
US8339378B2 (en) * 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
US8830268B2 (en) * 2008-11-07 2014-09-09 Barco Nv Non-linear image mapping using a plurality of non-linear image mappers of lesser resolution
EP2184926A1 (de) 2008-11-07 2010-05-12 Barco NV Nichtlineare Bildabbildung unter Verwendung einer Vielzahl von nichtlinearen Bildabbildern mit geringerer Auflösung
US20100142814A1 (en) * 2008-12-04 2010-06-10 Harris Corporation Image processing device for tonal balancing of mosaic images and related methods
US20100142842A1 (en) * 2008-12-04 2010-06-10 Harris Corporation Image processing device for determining cut lines and related methods
US20100158359A1 (en) * 2008-12-18 2010-06-24 Yue Qiao Image data clustering and color conversion
US20100165087A1 (en) * 2008-12-31 2010-07-01 Corso Jason J System and method for mosaicing endoscope images captured from within a cavity
US8406507B2 (en) * 2009-01-14 2013-03-26 A9.Com, Inc. Method and system for representing image patches
JP5877065B2 (ja) 2009-01-26 2016-03-02 トムソン ライセンシングThomson Licensing ビデオ符号化のためのフレーム・パッキング
US8738647B2 (en) * 2009-02-18 2014-05-27 A9.Com, Inc. Method and system for image matching
US8385591B1 (en) 2009-04-28 2013-02-26 Google Inc. System and method of using images to determine correspondence between locations
US8639046B2 (en) * 2009-05-04 2014-01-28 Mamigo Inc Method and system for scalable multi-user interactive visualization
US8126247B2 (en) * 2009-05-19 2012-02-28 National Tsing Hua University Image preprocessing system for 3D image database construction
US8605783B2 (en) * 2009-05-22 2013-12-10 Microsoft Corporation Composite video generation
JP5396162B2 (ja) * 2009-06-02 2014-01-22 富士フイルム株式会社 画像形成装置、プログラム、及び方法
US8458485B2 (en) 2009-06-17 2013-06-04 Microsoft Corporation Image-based unlock functionality on a computing device
KR101589500B1 (ko) * 2009-06-25 2016-01-28 삼성전자주식회사 촬영 장치 및 촬영 방법
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US8947502B2 (en) 2011-04-06 2015-02-03 Qualcomm Technologies, Inc. In camera implementation of selecting and stitching frames for panoramic imagery
US9138163B2 (en) 2009-09-25 2015-09-22 Ortho Kinematics, Inc. Systems and devices for an integrated imaging system with real-time feedback loop and methods therefor
US9792012B2 (en) 2009-10-01 2017-10-17 Mobile Imaging In Sweden Ab Method relating to digital images
CA2785187C (en) * 2009-12-25 2013-08-06 Rakuten, Inc. Image generation device, image generation method, image generation program, and recording medium
US9215445B2 (en) 2010-01-29 2015-12-15 Thomson Licensing Block-based interleaving
SE534551C2 (sv) * 2010-02-15 2011-10-04 Scalado Ab Digital bildmanipulation innefattande identifiering av ett målområde i en målbild och sömlös ersättning av bildinformation utifrån en källbild
US8588551B2 (en) * 2010-03-01 2013-11-19 Microsoft Corp. Multi-image sharpening and denoising using lucky imaging
US8620093B2 (en) * 2010-03-15 2013-12-31 The United States Of America As Represented By The Secretary Of The Army Method and system for image registration and change detection
US8411970B2 (en) * 2010-03-16 2013-04-02 Pixia Corp. Method and system for determining statistical data for image pixels having a higher bit depth per band
US9344701B2 (en) 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
JP5595188B2 (ja) * 2010-08-31 2014-09-24 キヤノン株式会社 画像処理装置および方法
US9594960B2 (en) * 2010-09-14 2017-03-14 Microsoft Technology Licensing, Llc Visualizing video within existing still images
US9407876B1 (en) 2010-09-14 2016-08-02 Pixia Corp. Method and system for encoding and decoding multiple wide-area surveillance area-of-interest video codestreams
US8532383B1 (en) 2010-09-16 2013-09-10 Pixia Corp. Method of processing a viewport within large format imagery
US9398211B2 (en) * 2010-09-23 2016-07-19 Intel Corporation Multi-device alignment for collaborative media capture
US8990199B1 (en) 2010-09-30 2015-03-24 Amazon Technologies, Inc. Content search with category-aware visual similarity
US8422782B1 (en) 2010-09-30 2013-04-16 A9.Com, Inc. Contour detection and image classification
US9185388B2 (en) 2010-11-03 2015-11-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US8861890B2 (en) 2010-11-24 2014-10-14 Douglas Alan Lefler System and method for assembling and displaying individual images as a continuous image
CA2819257C (en) 2010-12-14 2019-09-24 Hologic, Inc. System and method for fusing three dimensional image data from a plurality of different imaging systems for use in diagnostic imaging
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
EP2686827A1 (de) * 2011-03-18 2014-01-22 C3 Technologies AB 3d-strassen
US8717387B1 (en) 2011-04-04 2014-05-06 Google Inc. Correction of misaligned map data from different sources
US20120265858A1 (en) * 2011-04-12 2012-10-18 Jorg-Ulrich Mohnen Streaming portions of a quilted graphic 2d image representation for rendering into a digital asset
US9762794B2 (en) 2011-05-17 2017-09-12 Apple Inc. Positional sensor-assisted perspective correction for panoramic photography
AU2011202415B1 (en) 2011-05-24 2012-04-12 Microsoft Technology Licensing, Llc Picture gesture authentication
SE1150505A1 (sv) 2011-05-31 2012-12-01 Mobile Imaging In Sweden Ab Metod och anordning för tagning av bilder
US9247133B2 (en) 2011-06-01 2016-01-26 Apple Inc. Image registration using sliding registration windows
US9007428B2 (en) * 2011-06-01 2015-04-14 Apple Inc. Motion-based image stitching
US20130002858A1 (en) * 2011-06-28 2013-01-03 Bridge Robert F Mechanisms for Conserving Power in a Compressive Imaging System
EP2718896A4 (de) 2011-07-15 2015-07-01 Mobile Imaging In Sweden Ab Verfahren zur bereitstellung einer eingestellten digitalen bilddarstellung einer ansicht und vorrichtung dafür
JP6112624B2 (ja) * 2011-08-02 2017-04-12 ビューズアイキュー インコーポレイテッドViewsIQ Inc. デジタル顕微鏡撮像の装置及び方法
US20130097194A1 (en) * 2011-08-05 2013-04-18 New York University Apparatus, method, and computer-accessible medium for displaying visual information
JP2013070212A (ja) * 2011-09-22 2013-04-18 Fuji Xerox Co Ltd 画像処理装置、画像処理プログラム
TW201316184A (zh) * 2011-10-14 2013-04-16 Kdan Mobile Software Ltd 電子裝置區塊擷取及貼覆之電腦程式產品
US20130106990A1 (en) 2011-11-01 2013-05-02 Microsoft Corporation Planar panorama imagery generation
EP2783305A4 (de) * 2011-11-24 2015-08-12 Microsoft Technology Licensing Llc Multimodale interaktives bildsuche
US8200020B1 (en) 2011-11-28 2012-06-12 Google Inc. Robust image alignment using block sums
US8995788B2 (en) * 2011-12-14 2015-03-31 Microsoft Technology Licensing, Llc Source imagery selection for planar panorama comprising curve
US9324184B2 (en) 2011-12-14 2016-04-26 Microsoft Technology Licensing, Llc Image three-dimensional (3D) modeling
US10008021B2 (en) 2011-12-14 2018-06-26 Microsoft Technology Licensing, Llc Parallax compensation
US9406153B2 (en) 2011-12-14 2016-08-02 Microsoft Technology Licensing, Llc Point of interest (POI) data positioning in image
US11321772B2 (en) 2012-01-12 2022-05-03 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US8989515B2 (en) 2012-01-12 2015-03-24 Kofax, Inc. Systems and methods for mobile image capture and processing
US8824794B1 (en) * 2012-01-23 2014-09-02 Google Inc. Graduated color correction of digital terrain assets across different levels of detail
DE102012101242A1 (de) * 2012-02-16 2013-08-22 Hseb Dresden Gmbh Inspektionsverfahren
US10306140B2 (en) 2012-06-06 2019-05-28 Apple Inc. Motion adaptive image slice selection
US9098922B2 (en) * 2012-06-06 2015-08-04 Apple Inc. Adaptive image blending operations
US20140025456A1 (en) * 2012-07-18 2014-01-23 Rosee R. REESE/ROYCE Method of Fundraising Through a Collaborative Creation of Artwork with Prize-Winning Incentives
US20140153828A1 (en) * 2012-07-20 2014-06-05 Stephan Keszler Method of creating a photographic mosaic
US8446481B1 (en) 2012-09-11 2013-05-21 Google Inc. Interleaved capture for high dynamic range image acquisition and synthesis
JP5493114B1 (ja) * 2012-10-24 2014-05-14 株式会社モルフォ 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
US9147275B1 (en) 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
US9043349B1 (en) 2012-11-29 2015-05-26 A9.Com, Inc. Image-based character recognition
US9380222B2 (en) 2012-12-04 2016-06-28 Symbol Technologies, Llc Transmission of images for inventory monitoring
US8866927B2 (en) 2012-12-13 2014-10-21 Google Inc. Determining an image capture payload burst structure based on a metering image capture sweep
US9087391B2 (en) 2012-12-13 2015-07-21 Google Inc. Determining an image capture payload burst structure
US8866928B2 (en) 2012-12-18 2014-10-21 Google Inc. Determining exposure times using split paxels
US9247152B2 (en) * 2012-12-20 2016-01-26 Google Inc. Determining image alignment failure
US8995784B2 (en) 2013-01-17 2015-03-31 Google Inc. Structure descriptors for image processing
US9342930B1 (en) 2013-01-25 2016-05-17 A9.Com, Inc. Information aggregation for recognized locations
TWI543610B (zh) * 2013-02-01 2016-07-21 宏達國際電子股份有限公司 電子裝置及其影像選擇方法
US9686537B2 (en) 2013-02-05 2017-06-20 Google Inc. Noise models for image processing
US9241128B2 (en) 2013-02-14 2016-01-19 Warner Bros. Entertainment Inc. Video conversion technology
US11620733B2 (en) 2013-03-13 2023-04-04 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
US10783615B2 (en) 2013-03-13 2020-09-22 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
US10127636B2 (en) 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US9042674B2 (en) * 2013-03-15 2015-05-26 Digitalglobe, Inc. Automated geospatial image mosaic generation
US20140300686A1 (en) * 2013-03-15 2014-10-09 Tourwrist, Inc. Systems and methods for tracking camera orientation and mapping frames onto a panoramic canvas
US9633460B2 (en) * 2013-03-15 2017-04-25 Cyberlink Corp. Systems and methods for seamless patch matching
US9117134B1 (en) 2013-03-19 2015-08-25 Google Inc. Image merging with blending
US9066017B2 (en) 2013-03-25 2015-06-23 Google Inc. Viewfinder display based on metering images
US9836875B2 (en) * 2013-04-26 2017-12-05 Flipboard, Inc. Viewing angle image manipulation based on device rotation
US9131201B1 (en) 2013-05-24 2015-09-08 Google Inc. Color correcting virtual long exposures with true long exposures
US9077913B2 (en) 2013-05-24 2015-07-07 Google Inc. Simulating high dynamic range imaging with virtual long-exposure images
US9832378B2 (en) 2013-06-06 2017-11-28 Apple Inc. Exposure mapping and dynamic thresholding for blending of multiple images using floating exposure
DE102013212495A1 (de) 2013-06-27 2014-12-31 Robert Bosch Gmbh Verfahren und Vorrichtung zur Inspektion einer konturierten Fläche,insbesondere des Unterbodens eines Kraftfahrzeugs
US20150062287A1 (en) * 2013-08-27 2015-03-05 Google Inc. Integrating video with panorama
US10298898B2 (en) 2013-08-31 2019-05-21 Ml Netherlands C.V. User feedback for real-time checking and improving quality of scanned image
US9615012B2 (en) 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
US9424598B1 (en) 2013-12-02 2016-08-23 A9.Com, Inc. Visual search in a controlled shopping environment
EP3089101A1 (de) 2013-12-03 2016-11-02 Dacuda AG Benutzerfeedback zur echtzeitüberwachung und verbesserung der qualität eines abgetasteten bildes
WO2015104236A1 (en) * 2014-01-07 2015-07-16 Dacuda Ag Adaptive camera control for reducing motion blur during real-time image capture
EP4113457A1 (de) 2014-01-07 2023-01-04 ML Netherlands C.V. Dynamische aktualisierung von zusammengestzten bildern
US9554060B2 (en) 2014-01-30 2017-01-24 Google Inc. Zoom images with panoramic image capture
US9259844B2 (en) * 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
US9367895B2 (en) * 2014-03-19 2016-06-14 Digitalglobe, Inc. Automated sliver removal in orthomosaic generation
US10484561B2 (en) 2014-05-12 2019-11-19 Ml Netherlands C.V. Method and apparatus for scanning and printing a 3D object
JP2015225476A (ja) 2014-05-27 2015-12-14 富士ゼロックス株式会社 画像処理装置およびプログラム
US20170055814A1 (en) * 2014-06-01 2017-03-02 Capsovision ,Inc. Reconstruction of Images from an in Vivo Multi-Camera Capsule with Confidence Matching
US9536161B1 (en) 2014-06-17 2017-01-03 Amazon Technologies, Inc. Visual and audio recognition for scene change events
US9396537B2 (en) * 2014-09-09 2016-07-19 EyeVerify, Inc. Systems and methods for liveness analysis
US20170251159A1 (en) * 2014-09-17 2017-08-31 Taris Biomedical Llc Method and systems for diagnostic mapping of bladder
SE1451336A1 (en) 2014-11-07 2016-05-08 Fingerprint Cards Ab Enrolling templates for biometric authentication
US9613428B2 (en) 2014-11-07 2017-04-04 Fingerprint Cards Ab Fingerprint authentication using stitch and cut
JP6450589B2 (ja) * 2014-12-26 2019-01-09 株式会社モルフォ 画像生成装置、電子機器、画像生成方法及びプログラム
US9594980B1 (en) * 2015-01-19 2017-03-14 Ricoh Co., Ltd. Image acquisition user interface for linear panoramic image stitching
US9626589B1 (en) * 2015-01-19 2017-04-18 Ricoh Co., Ltd. Preview image acquisition user interface for linear panoramic image stitching
US9451873B1 (en) * 2015-03-06 2016-09-27 Align Technology, Inc. Automatic selection and locking of intraoral images
US10055672B2 (en) 2015-03-11 2018-08-21 Microsoft Technology Licensing, Llc Methods and systems for low-energy image classification
US10268886B2 (en) 2015-03-11 2019-04-23 Microsoft Technology Licensing, Llc Context-awareness through biased on-device image classifiers
US10217257B1 (en) * 2015-03-17 2019-02-26 Amazon Technologies, Inc. Process for contextualizing continuous images
US9531952B2 (en) * 2015-03-27 2016-12-27 Google Inc. Expanding the field of view of photograph
JP6394462B2 (ja) * 2015-03-30 2018-09-26 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
KR102328020B1 (ko) * 2015-04-03 2021-11-17 한국전자통신연구원 하나의 룩업 테이블을 이용한 파노라마 영상 출력 시스템 및 방법
JP6433844B2 (ja) * 2015-04-09 2018-12-05 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、中継装置、情報処理システム、およびソフトウェアアップデート方法
US9794540B2 (en) * 2015-04-17 2017-10-17 Google Inc. Hardware-based convolutional color correction in digital images
US9852348B2 (en) * 2015-04-17 2017-12-26 Google Llc Document scanner
US9336582B1 (en) 2015-04-17 2016-05-10 Google Inc. Convolutional color correction
US9342873B1 (en) 2015-05-23 2016-05-17 Google Inc. Tile-based optical flow
US9736366B1 (en) 2015-05-23 2017-08-15 Google Inc. Tile-based digital image correspondence
US9569874B2 (en) * 2015-06-05 2017-02-14 International Business Machines Corporation System and method for perspective preserving stitching and summarizing views
US20160354161A1 (en) 2015-06-05 2016-12-08 Ortho Kinematics, Inc. Methods for data processing for intra-operative navigation systems
US10467465B2 (en) 2015-07-20 2019-11-05 Kofax, Inc. Range and/or polarity-based thresholding for improved data extraction
US10120884B2 (en) 2015-08-06 2018-11-06 Digitalglobe, Inc. Choreographing automated and manual processes in support of mosaic generation
CN111887786A (zh) 2015-08-14 2020-11-06 直观外科手术操作公司 用于图像引导外科手术的配准系统和方法
US11202680B2 (en) * 2015-08-14 2021-12-21 Intuitive Surgical Operations, Inc. Systems and methods of registration for image-guided surgery
US10484601B2 (en) * 2015-08-31 2019-11-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP6431245B1 (ja) 2015-11-05 2018-11-28 グーグル エルエルシー エッジ認識双方向画像処理
US10352689B2 (en) 2016-01-28 2019-07-16 Symbol Technologies, Llc Methods and systems for high precision locationing with depth values
JP6684646B2 (ja) 2016-05-13 2020-04-22 オリンパス株式会社 画像取得装置
WO2017205386A1 (en) 2016-05-27 2017-11-30 Hologic, Inc. Synchronized surface and internal tumor detection
US11042161B2 (en) 2016-11-16 2021-06-22 Symbol Technologies, Llc Navigation control method and apparatus in a mobile automation system
US10497094B2 (en) * 2016-12-28 2019-12-03 Nokia Technologies Oy Method and apparatus for multi-band blending of a seam in an image derived from multiple cameras
CN110612592B (zh) * 2017-04-27 2021-05-11 阿卜杜拉国王科技大学 透射电子显微镜样品对齐系统和方法
US11367092B2 (en) 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
US11449059B2 (en) 2017-05-01 2022-09-20 Symbol Technologies, Llc Obstacle detection for a mobile automation apparatus
US10663590B2 (en) 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
US10505057B2 (en) 2017-05-01 2019-12-10 Symbol Technologies, Llc Device and method for operating cameras and light sources wherein parasitic reflections from a paired light source are not reflected into the paired camera
US10949798B2 (en) 2017-05-01 2021-03-16 Symbol Technologies, Llc Multimodal localization and mapping for a mobile automation apparatus
WO2018204342A1 (en) 2017-05-01 2018-11-08 Symbol Technologies, Llc Product status detection system
US10726273B2 (en) 2017-05-01 2020-07-28 Symbol Technologies, Llc Method and apparatus for shelf feature and object placement detection from shelf images
US10591918B2 (en) 2017-05-01 2020-03-17 Symbol Technologies, Llc Fixed segmented lattice planning for a mobile automation apparatus
US11600084B2 (en) 2017-05-05 2023-03-07 Symbol Technologies, Llc Method and apparatus for detecting and interpreting price label text
JP2019012360A (ja) * 2017-06-29 2019-01-24 キヤノン株式会社 情報処理装置、プログラム及び情報処理方法
JP6887909B2 (ja) * 2017-08-01 2021-06-16 株式会社東芝 画像処理装置
JPWO2019044408A1 (ja) 2017-08-31 2020-02-27 富士フイルム株式会社 画像処理装置、方法およびプログラム
US10521914B2 (en) 2017-09-07 2019-12-31 Symbol Technologies, Llc Multi-sensor object recognition system and method
US10572763B2 (en) 2017-09-07 2020-02-25 Symbol Technologies, Llc Method and apparatus for support surface edge detection
CN110869945A (zh) 2017-10-16 2020-03-06 惠普印迪格公司 图像处理装置
JP2019097050A (ja) * 2017-11-24 2019-06-20 京セラドキュメントソリューションズ株式会社 画像読取装置及び画像読取プログラム
US10803350B2 (en) 2017-11-30 2020-10-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
US10823572B2 (en) 2018-04-05 2020-11-03 Symbol Technologies, Llc Method, system and apparatus for generating navigational data
US10740911B2 (en) 2018-04-05 2020-08-11 Symbol Technologies, Llc Method, system and apparatus for correcting translucency artifacts in data representing a support structure
US10832436B2 (en) 2018-04-05 2020-11-10 Symbol Technologies, Llc Method, system and apparatus for recovering label positions
US10809078B2 (en) 2018-04-05 2020-10-20 Symbol Technologies, Llc Method, system and apparatus for dynamic path generation
US11327504B2 (en) 2018-04-05 2022-05-10 Symbol Technologies, Llc Method, system and apparatus for mobile automation apparatus localization
US11010920B2 (en) 2018-10-05 2021-05-18 Zebra Technologies Corporation Method, system and apparatus for object detection in point clouds
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
US11090811B2 (en) 2018-11-13 2021-08-17 Zebra Technologies Corporation Method and apparatus for labeling of support structures
US11003188B2 (en) 2018-11-13 2021-05-11 Zebra Technologies Corporation Method, system and apparatus for obstacle handling in navigational path generation
US11079240B2 (en) 2018-12-07 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for adaptive particle filter localization
US11416000B2 (en) 2018-12-07 2022-08-16 Zebra Technologies Corporation Method and apparatus for navigational ray tracing
US11100303B2 (en) 2018-12-10 2021-08-24 Zebra Technologies Corporation Method, system and apparatus for auxiliary label detection and association
US11015938B2 (en) 2018-12-12 2021-05-25 Zebra Technologies Corporation Method, system and apparatus for navigational assistance
US10731970B2 (en) 2018-12-13 2020-08-04 Zebra Technologies Corporation Method, system and apparatus for support structure detection
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
US10986308B2 (en) * 2019-03-20 2021-04-20 Adobe Inc. Intelligent video reframing
US11151743B2 (en) 2019-06-03 2021-10-19 Zebra Technologies Corporation Method, system and apparatus for end of aisle detection
US11402846B2 (en) 2019-06-03 2022-08-02 Zebra Technologies Corporation Method, system and apparatus for mitigating data capture light leakage
US11662739B2 (en) 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
US11080566B2 (en) 2019-06-03 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for gap detection in support structures with peg regions
US11200677B2 (en) 2019-06-03 2021-12-14 Zebra Technologies Corporation Method, system and apparatus for shelf edge detection
US11960286B2 (en) 2019-06-03 2024-04-16 Zebra Technologies Corporation Method, system and apparatus for dynamic task sequencing
US11341663B2 (en) 2019-06-03 2022-05-24 Zebra Technologies Corporation Method, system and apparatus for detecting support structure obstructions
CN110853058B (zh) * 2019-11-12 2023-01-03 电子科技大学 基于视觉显著性检测的高分辨率遥感影像道路提取方法
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11107238B2 (en) 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
CN113628096A (zh) * 2020-05-07 2021-11-09 杭州海康威视数字技术股份有限公司 一种图像处理方法、装置及设备
US11450024B2 (en) 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
US11593915B2 (en) 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
US11392891B2 (en) 2020-11-03 2022-07-19 Zebra Technologies Corporation Item placement detection and optimization in material handling systems
US11847832B2 (en) 2020-11-11 2023-12-19 Zebra Technologies Corporation Object classification for autonomous navigation systems
US11948315B2 (en) * 2020-12-31 2024-04-02 Nvidia Corporation Image composition in multiview automotive and robotics systems
RU2757802C1 (ru) * 2021-01-29 2021-10-21 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") Система видеонаблюдения
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices
EP4116925A1 (de) * 2021-07-09 2023-01-11 See Through S.r.l. Bildverarbeitungsverfahren zur erzeugung eines panoramabildes
CN113810628B (zh) * 2021-09-18 2023-07-21 南京巨鲨显示科技有限公司 一种低功耗视频拼接器及方法
CN114092592B (zh) * 2022-01-20 2022-04-01 腾讯科技(深圳)有限公司 马赛克图像的生成方法及相关装置
US11954775B2 (en) 2022-02-23 2024-04-09 International Business Machines Corporation Artboard element positioning in a series of computer-based artboards

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4758892A (en) * 1984-04-27 1988-07-19 Ampex Corporation System for producing a video combine from multiple video images
US4797942A (en) * 1987-03-02 1989-01-10 General Electric Pyramid processor for building large-area, high-resolution image by parts
JPH0766445B2 (ja) * 1988-09-09 1995-07-19 工業技術院長 画像処理方法
GB9001468D0 (en) * 1990-01-23 1990-03-21 Sarnoff David Res Center Computing multiple motions within an image region
FR2661061B1 (fr) * 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
US5187754A (en) * 1991-04-30 1993-02-16 General Electric Company Forming, with the aid of an overview image, a composite image from a mosaic of images
JP2821042B2 (ja) * 1991-05-01 1998-11-05 松下電器産業株式会社 画像合成装置
ES2136603T3 (es) * 1991-07-19 1999-12-01 Princeton Video Image Inc Presentaciones televisivas con signos insertados, seleccionados.
GB9119964D0 (en) * 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
US5394520A (en) * 1991-09-26 1995-02-28 Hughes Aircraft Company Imaging apparatus for providing a composite digital representation of a scene within a field of regard
US5259040A (en) * 1991-10-04 1993-11-02 David Sarnoff Research Center, Inc. Method for determining sensor motion and scene structure and image processing system therefor
US5657402A (en) * 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
US5515181A (en) * 1992-03-06 1996-05-07 Fuji Xerox Co., Ltd. Image reading apparatus providing high quality images through synthesis of segmented image data
US5325449A (en) * 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
US5649032A (en) * 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021240545A1 (en) * 2020-05-26 2021-12-02 Adarsh Natarajan A method and system for whole slide imaging with low computational complexity

Also Published As

Publication number Publication date
EP0979487A4 (de) 2000-07-26
ES2258795T3 (es) 2006-09-01
KR20000023784A (ko) 2000-04-25
DE69735488D1 (de) 2006-05-11
US6075905A (en) 2000-06-13
WO1998002844A1 (en) 1998-01-22
CA2261128A1 (en) 1998-01-22
EP0979487B1 (de) 2006-03-15
EP0979487A1 (de) 2000-02-16
JP2002514359A (ja) 2002-05-14

Similar Documents

Publication Publication Date Title
DE69735488T2 (de) Verfahren und vorrichtung zum ausrichten von bildern
DE69827232T2 (de) Mosaikbildverarbeitungssystem
DE60133202T2 (de) Zusammenführen von bildern zur bildung eines panoramischen bildes
EP1784978B1 (de) Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
DE69726421T2 (de) Projektor mit einer schaltung und verfahren zum automatischen einstellen des projektors
US8509565B2 (en) Optimal multi-resolution blending of confocal microscope images
DE69628723T2 (de) Gradientengestütztes Verfahren zur Erzeugung von Werten für unbekannte Pixel in einem Digitalbild
DE112020003794T5 (de) Tiefenbewusste Fotobearbeitung
DE102011078662B4 (de) Erfassen und Erzeugen von Bildern mit hohem Dynamikbereich
DE19782037C2 (de) Verfahren und Einrichtung zur Erzeugung eines zusammengesetzten Bildes
DE102015010096A1 (de) Konfigurationseinstellungen einer Digitalkamera zur Tiefenkarten-Erzeugung
DE112006000358B4 (de) Verfahren und Vorrichtung zur Erstellung eines Panoramabildes
DE69432239T2 (de) Bildfelddetektion
DE69909635T2 (de) Gerät und verfahren zur elektronischen bildverbesserung
WO1998002844A9 (en) Method and apparatus for mosaic image construction
DE3022454A1 (de) Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator
DE102004049676A1 (de) Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium
DE102011056970A1 (de) Rasterausgabe von rotierten, interpolierten Pixeln, die für digitale Bildstabilisierung optimiert ist
EP1231778A2 (de) Verfahren und System zur digitalen Verarbeitung von bewegten Bildern
WO2011103865A2 (de) Verfahren und autostereoskopische anzeige zur erzeugung von dreidimensionalen bildern
DE602004005879T2 (de) Verfahren und system zum differentiellen und regelmässigen modifizieren eines digitalen bildes nach pixeln
DE69818584T2 (de) Methode zur Gewinnung radialer Verzerrungsparameter aus einem einzigen Kamerabild
DE10156040B4 (de) Verfahren, Vorrichtung und Computerprogramm-Produkt zum Entzerren einer eingescannten Abbildung
DE60032452T2 (de) Verfahren zur globalen bewegungsschätzung
EP3844943B1 (de) Verfahren zur anzeige eines modells einer umgebung, steuergerät und fahrzeug

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee