DE69733978T2 - Bilddateninterpolationsgerät - Google Patents

Bilddateninterpolationsgerät Download PDF

Info

Publication number
DE69733978T2
DE69733978T2 DE69733978T DE69733978T DE69733978T2 DE 69733978 T2 DE69733978 T2 DE 69733978T2 DE 69733978 T DE69733978 T DE 69733978T DE 69733978 T DE69733978 T DE 69733978T DE 69733978 T2 DE69733978 T2 DE 69733978T2
Authority
DE
Germany
Prior art keywords
data
interpolation
pixel
pixels
pixel data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69733978T
Other languages
English (en)
Other versions
DE69733978D1 (de
Inventor
Kazuyuki Itabashi-ku Suga
Hiroshi Chiba-shi Kusao
Takashi Tenri-shi Nishimura
Noritoshi Nara-shi Kakoh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP8005822A external-priority patent/JPH09200575A/ja
Priority claimed from JP08556796A external-priority patent/JP3411950B2/ja
Application filed by Sharp Corp filed Critical Sharp Corp
Application granted granted Critical
Publication of DE69733978D1 publication Critical patent/DE69733978D1/de
Publication of DE69733978T2 publication Critical patent/DE69733978T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/4448Receiver circuitry for the reception of television signals according to analogue transmission standards for frame-grabbing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/12Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal
    • H04N7/122Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal involving expansion and subsequent compression of a signal segment, e.g. a frame, a line

Description

  • HINTERGRUND DER ERFINDUNG
  • (1) Gebiet der Erfindung
  • Die Erfindung betrifft ein Bilddateninterpolationsgerät für den Einsatz in Videokassettenrekordern zur Darstellung eines hochqualitativen ruhenden Bildes und im Speziellen ein Bilddateninterpolationsgerät, das in einem System mit Interlaced-Abtastung zum Erzeugen eines Datenframes für ein ruhendes Bild durch Interpolation eines Datenfeldes verwendet wird.
  • Die Erfindung betrifft weiter ein Bilddateninterpolationsgerät zur Erzeugung eines hochqualitativen ruhenden Bildes in einem Videokassettenrekorder durch Auswahl stationärer Flächen und Durchführung einer Zwischenfeldinterpolation lediglich für diese Flächen und dieses trennt stationäre Flächen von beweglichen Flächen im Datenframe der Interlaced-Abtastung in einem hochqualitativen Fernsehsystem oder Desgleichen, das eine flimmerfreie Nicht-Interlaced-Anzeige darstellen kann.
  • (2) Beschreibung des Standes der Technik
  • Wird in bekannter Weise ein ruhendes Bild unter Verwendung von Interlaced-Abtastung in einem Videokassettenrekorder, Videodrucker, etc. erzeugt, wird das erste Datenfeld einem Interpolationsprozess zur Erzeugung eines Datenframes unterzogen, um die Verzögerung zwischen den Videobildern der ersten und zweiten Felder zu unterdrücken und damit ein hochqualitatives ruhendes Bild zu erzeugen.
  • Mit Bezug zu 1 bis 9 werden bekannte Technologien zur Bilddateninterpolation beschrieben, die einen Datenframe durch Interpolation der ersten Datenfelder erzeugen.
  • Hierbei zeigt 1 eine Referenzdarstellung mit einem Beispiel eines originalen Datenfeldes um bekannte Techniken der Bilddateninterpolation zu erläutern. 2 zeigt ein vergrößertes Diagramm zur detaillierten Erläuterung des in 1 eingekreisten originalen Datenfeldes. 3 zeigt ein Diagramm zur Erläuterung eines Interpolationsverfahrens für Datenfelder, bei welchen zu interpolierende Pixel durch Verwendung entweder der oberen oder unteren benachbarten Pixel erzeugt werden. 4 zeigt ein Diagramm zur Erläuterung eines Interpolationsverfahrens, bei welchem zu interpolierende Pixel durch Berechnung des Mittelwertes der oberen und unteren benachbarten Pixel erzeugt werden. 5 zeigt ein Diagramm zur Erläuterung eines Interpolationsverfahrens, bei welchem die Korrelation zwischen Pixel, welche in schiefer Richtung bezüglich des zu interpolierenden Pixels liegen, ausgewertet werden. 6 zeigt eine Abbildung zur Erläuterung eines Interpolationsverfahrens, welches die Korrelation von in fünf Richtungen liegenden Pixel auswertet. 7 zeigt eine Abbildung zur Erläuterung eines Interpolationsverfahrens, welches die Korrelation von in sieben Richtungen gelegenen Pixel auswertet. 8 und 9 sind Bezugsdiagramme zur Beurteilung der Auswahl der Richtungen für eine auf entsprechenden Korrelationen basierende Interpolation.
  • Interlaced-Abtastung ist ein Verfahren der Abtastung, bei welchem jeder Datenframe in zwei Datenfelder unterteilt wird, welche zu verschiedenen Zeitpunkten aktiviert werden um ein Videobild zu erzeugen, wobei jeder Frame zweimal abgetastet wird, so dass die Lücken zwischen den ersten Abtastspuren mit den zweiten Abtastzeilen, d.h. Scanzeilen gefüllt werden.
  • Die zwei Bilder, die einzeln und nacheinander projiziert werden, werden als ein Bild aufgrund der visuellen Nachbildung im menschlichen Auge wahrgenommen. Werden jedoch die beiden Datenfelder, die separat mit einer Zeitverzögerung gesendet werden, in den Datenframe zur Erzeugung eines ruhenden Bildes umgewandelt tritt das folgende Problem auf: obwohl kein Problem auftritt falls sowohl die Kamera als auch das Objekt absolut ruhend sind verschlechtert sich, falls sich eines dieser beiden oder sich beide bewegen, die Kontinuität zwischen ungeradzahligen Scanzeilen und geradzahligen Scanzeilen im resultierenden Bild aufgrund der Zeitverzögerung zwischen den beiden Datenfeldern. Somit entsteht eine Diskrepanz zwischen den ersten und zweiten Datenfeldern. Hieraus resultierend nimmt die Qualität des angezeigten Bildes ab.
  • Um hiermit umzugehen kam die Idee auf, dass ein Datenframe erstellt werden kann unter Verwendung lediglich der Daten des ersten oder des zweiten Feldes. In diesem Falle ist es jedoch erforderlich die Bilddaten zu interpolieren, da die als Basis zu verwendenden Datenfelder Datenzeilen und leere Zeilen in sich abwechselnder Anordnung wie in 2 gezeigt aufweisen. Verschiedene weitere Verfahren wurden bekanntlich zur Interpolation der Bilddaten vorgeschlagen. Einige dieser Verfahren werden unten stehend erläutert.
  • In der nachfolgenden Beschreibung kennzeichnet B(0) die zu interpolierenden Pixeldaten, A(n) und C(n) kennzeichnen die Referenz-Pixeldaten, welche bei der Interpolation entsprechend entsprechender oberer und unterer horizontaler Scanzeilen ausgewertet werden. Hierbei kennzeichnet 'n' die für jedes Pixel der horizontalen Zeile basierend auf den Pixeldaten B(0) zugeteilte Nummer.
  • Das erste Verfahren besteht im einfachen Wiederholen der benachbarten Pixeldaten. Wie in 3 gezeigt wird hierbei die Interpolation der Datenfelder durch Verwendung der Daten jedes Pixels auf den ungeradzahligen Zeilen des Bildfeldes, z.B. Scanzeile 1, Scanzeile 3, ... zur Erzeugung der Pixeldaten der Scanzeile 2, Scanzeile 4, ... verwendet.
  • Speziell wird bei diesem Verfahren die Interpolation mit B(0) = A(0) durchgeführt. Es erübrigt sich zu erwähnen, dass die ungeradzahligen Zeilen durch Verwendung der Daten der geradzahligen Zeilen interpoliert werden können. In Übereinstimmung mit diesem Verfahren wird die Auflösung in der vertikalen Richtung auf deren Hälfte reduziert und damit wird ein Treppeneffekt entlang schräger Zeilen merklich auffällig.
  • Wie in 4 gezeigt folgt ein Verfahren zur Interpolation durch Auswertung des Mittelwertes der beiden Teile von Daten der oberhalb und unterhalb des zu interpolierenden Pixels liegenden Referenzpixel.
  • Im Speziellen wird die Interpolation bei diesem Verfahren mit B(0) = {A(0) + C(0)}/2 durchgeführt. In Übereinstimmung mit diesem Verfahren wird ein Treppeneffekt bis zu einem bestimmten Maße abgeschwächt, jedoch wird die Kante geschwächt, so dass das resultierende Bild einen unscharfen Eindruck hinterlässt.
  • Ein weiteres bekanntes Verfahren berücksichtigt den Gradienten der Kante wie in 5 gezeigt durch Berechnung des Abstandes der Daten jedes Paars von Referenzpixel, die sich gegenüberliegend mit dem zu interpolierenden Pixel in der Mitte angeordnet sind. Dieses Verfahren wird für insgesamt 3 Richtungen durchgeführt, d.h. nicht lediglich für die Pixel oberhalb und unterhalb des zu interpolierenden Zielpixels, sondern ebenso bezüglich der Pixel in einer beliebigen Ausrichtung von oben rechts bis unten links sowie in der schiefen Richtung von oben links nach unten rechts. Von diesen Paaren von Pixel wird dasjenige ausgewählt, für welches die Differenz minimal wird und dessen Mittelwert der Pixeldaten wird zur Interpolation des Zielpixels herangezogen.
  • Im Speziellen wird gemäß diesem Verfahren der Minimalwert von |A(–1) – C(–1)|, |A(0) – C(0)| und |A(1) – C(–1)| ausgewählt und basierend auf dieser Auswahl einer der Mittelwerte ausgewählt aus B(0) ={A(–1) + C(1)}/2 B(0) = {A(0) + C(0)}/2 B(0) = {A(1) + C(–1)}/2,so dass der ausgewählte Mittelwert zur Interpolation der Bilddaten des zu interpolierenden Zielpixels verwendet wird.
  • Jedoch weisen einige Bilder Kanten mit eher sanften Gradienten auf, welche näher zur horizontalen Zeile liegen. Folglich wird es schwierig für die obige dreidimensionale Interpolation mit all diesen Fällen umzugehen. Um die Interpolation weiter zu verbessern ist es erforderlich, die Pixel um das Zielpixel in mehreren Richtungen auszuwerten, z.B. in fünf oder sieben Richtungen wie in 6 und 7 dargestellt. Liegen in diesem Falle jedoch die Referenzpixel weiter von dem zu interpolierenden Pixel B(0) entfernt wie A(–3) und C(3), oder A(3) und C(–3) wie in 7, so stehen die Pixel zu dem zu interpolierenden Zielpixel weniger in Beziehung und somit nimmt die Wahrscheinlichkeit zu, dass diese Pixel eine zueinander sehr ähnliche Helligkeit aufweisen. Falls dies auftritt kann das zu interpolierende Zielpixel B(0) durch Daten repräsentiert werden, die keine Beziehung zu den Daten der benachbarten Pixel aufweisen, weshalb das interpolierte Pixel im Bild als Irregularität hervortreten kann.
  • JP 153,562 offenbart Verbesserungen der bekannten Bilddateninterpolationstechnologie. Bei dieser Bilddateninterpolationstechnik werden sieben Richtungen wie in 7 gezeigt für die Interpolation zugrundegelegt. In den sieben Richtungen werden die zentralen 3 Paare von Pixel, d.h. A(–1) und C(1), A(0) und C(0) sowie A(1) und C(–1) in 7 als erster Bereich definiert. Zuerst wird die Richtungskorrelation für jede der drei Richtungen in dem ersten Bereich geprüft. Tritt eine Korrelation in einer Beliebigen der schiefen Richtungen auf, im Speziellen entlang A(–1) und C(1) oder A(1) und C(–1) wird die Korrelation in weiteren noch sanfter abgeschrägten Richtungen geprüft. Wird somit in der Ausgangsstufe der Beurteilung ermittelt, dass eine Korrelation zwischen A(1) und C(–1) vorliegt, werden die Korrelationen zwischen A(1) und C(–1), A(2) und C(–2) sowie A(3) und C(–3), die als zweiter Bereich definiert sind, geprüft. Wird ermittelt, dass eine Korrelation zwischen A(–1) und C(1) bestand, werden die Korrelationen zwischen A(–1) und C(1), A(–2) und C(2) sowie A(–3) und C(3), die als dritter Bereich definiert sind geprüft. Auf diese Weise wird das Paar, welches die größte Korrelation darstellt ermittelt und die Interpolationspixeldaten werden basierend auf dieser Bestimmung festgelegt.
  • Jedoch können in Übereinstimmung mit diesen bekannten Technologien zur Bilddateninterpolation weiterhin Fälle auftreten bei denen eine In terpolation nicht geeignet durchgeführt werden kann. Infolge dessen tritt ein Treppeneffekt in Absätzen im resultierenden interpolierten Bild auf, die ursprünglich glatt sein sollten und es existieren durchaus einige wenige Fälle, bei denen die Irregularitäten aufgrund falscher Interpolation (eine ungeeignete Interpolation oder das ungeeignete interpolierte Pixel wird im Folgenden als „fehlerhafte Interpolation" bezeichnet) hervortreten.
  • Ein erster Grund für das Auftreten fehlerhafter Interpolation liegt darin, dass eine Kante im Bild nicht immer entlang der tatsächlichen Pixel verläuft. Es sei ein Fall betrachtet, bei dem B(0) in dem in 8 gezeigten Bild interpoliert werden soll. In diesem Falle wird angenommen dass eine Linie L die Grenzbereiche zwischen A(0) und A(1) und die Grenzbereiche zwischen C(–1) und C(0) durchschreitet während Pixel A(3) und C(–3) dieselben Bilddaten aufweisen. Derartige Bilder können auftreten falls digitalisierte Videobilder des NTSC Systems oder Desgleichen, die nicht derart hoch aufgelöst sind wie bedruckte Materialien etc. gehandhabt werden.
  • Es sei angenommen, dass Pixeldatenwerte für A(0), A(–1), C(–1) und C(0) jeweils 5, 5, 6 und 3 entsprechen, während Pixel A(3) und C(–3) dieselben Bilddaten „x" aufweisen. Es wird weiter angenommen, dass die weiteren Referenzpixel eine schwache Korrelation aufweisen. In diesem Falle ist die Differenz zwischen A(0) und C(0) gleich 2 während die Differenz zwischen A(1) und C(–1) gleich 1 ist. Somit werden diese Differenzwerte größer als Derjenige zwischen A(3) und C(–3) abgeschätzt. Genauer gesagt wird in diesem Falle ermittelt, dass die Korrelationen zwischen A(0) und C(0) und die Korrelation zwischen A(1) und C(–1) kleiner sind als die Korrelation zwischen A(3) und C(–3). Entsprechend wird B(0) aus dem Mittelwert der Bilddaten A(3) und C(–3) interpoliert. Diese Situation würde ebenso in dem eingangs erwähnten Verfahren der JP 153,562 auftreten, da die obige Anordnung als schiefe Linie in der ersten Beurteilungsstufe festgelegt werden würde.
  • Zweitens wird entsprechend dem in JP 153,562 vorgeschlagenen Verfahren im Falle, dass im Gegensatz zum ersten Beispiel das Zielpixel über A(3) und C(–3) interpoliert werden soll, voraussichtlich das Zielpixel fehlerhaft über A(0) und C(0) interpoliert. Wird bei diesem Verfahren keine Korrelation zwischen den schiefen Richtungen im ersten Bereich beim Prüfen der Korrelation zwischen A(0) und C(0), A(–1) und C(1) sowie A(1) und C(–1) wie in 9 gezeigt detektiert, wird keine weitere Überprüfung der Korrelation der zweiten und dritten Bereiche durchgeführt.
  • Aus obigem Grunde besteht die Möglichkeit, dass im Falle, bei dem eine Kante einen geringfügigen Gradienten selbst bei größter Korrelation zwischen A(–3) und C(3) aufweist diese Referenzpixel nicht zum Erzeugen der Interpolations-Pixeldaten verwendet werden.
  • Wird in der Zwischenzeit ein ruhendes Bild mit einem bekannten Videokassettenrekorder oder Videodrucker, etc. angezeigt werden die Daten eines alleinigen Feldes einem Interpolationsprozess zur Erzeugung dessen Datenframe unterzogen. Da die Informationsmenge jedoch auf die Hälfte der ursprünglichen Menge reduziert ist, wird in diesem Falle die Qualität des Bildes minderwertigerer im Vergleich zu demjenigen Bild, welches durch den Datenframe bestehend aus zwei Datenfelder erzeugt wurde und die aufgenommen wurden als die Kamera und das Subjekt völlig still standen. Um diese Degradation zu vermeiden wurde ein Verfahren eingeführt, bei welchem der Datenframe derart bereitgestellt wird, dass stationäre Teile im Bild so erfasst werden wie diese sind, während die beweglichen Teile basierend auf entweder dem ersten oder dem zweiten Bereich erzeugt werden. Bei diesem Verfahren wird es erforderlich, bewegliche Bereiche von stationären Bereichen im Bild zu trennen.
  • Verschiedene Verfahren zur Detektion beweglicher Bereiche wurden bereits vorgeschlagen. Einige dieser werden beschrieben. Das erste Verfahren verwendet zwei Datenframes. Hierbei wird wie in 10 gezeigt die Differenz zwischen den beiden „ersten Datenfeldern" und die Differenz zwischen den beiden „zweiten Datenfeldern" zur Detektion beweglicher Punkte in jedem Feld erzeugt und danach die logische Summe zwischen diesen beiden ermittelt. Dieses Verfahren ist durchaus vernünftig, da eine die Lage betreffende Verschiebung in der vertikalen Richtung zwischen den ersten und zweiten Feldern aufgrund des Interlaced-Abtastens auftritt, ist es nicht angemessen die ersten und zweiten Felddaten lediglich voneinander abzuziehen. Jedoch erhöht die Verwendung von zwei Datenframes die Kosten der Hardware für das Gerät. Zudem werden die stationären Bereiche durch Detektion des Bildes, das aus zwei aufeinander folgenden Datenfeldern aufgebaut ist, ausgehend von den vier aufeinander folgenden Datenfeldern aufbereitet, während die beweglichen Bereiche basierend auf zwei Datenfelder mit den ausgelassenen zwischenliegenden Feldern detektiert werden. Deshalb können Detektionsfehler in einigen Fällen in Abhängigkeit von der Bewegung des Bildes auftreten.
  • Das zweite Verfahren verwendet lediglich einen Satz eines Datenframes. In diesem Falle wird wie in 11 gezeigt die die Lage betreffende Abstimmung des ersten Feldes zum zweiten Feld in der vertikalen Richtung vor dem Bestimmen der Differenz ausgeführt. 12 zeigt im Speziellen, dass zur Bestimmung der Bewegung eines in Zeile „i" und Spalte „j" gekennzeich neten Pixel (als Pixel (i, j) zur Kennzeichnung von Pixel abgekürzt) die Daten von Pixel (i, j) mit dem Mittelwert der Daten von Pixel (i + 1, j) und den Daten von Pixel (i – 1, j) verglichen werden, wodurch die Beurteilung der Bewegung durchgeführt wird. Dieses Verfahren ist in JP 141,283 offenbart.
  • Weiterhin wird Bezug auf ein Verfahren genommen, bei welchem die Pixel im Feld in Blöcke partitioniert werden, die jeweils eine Anzahl von zueinander proximalen Pixel aufweisen und jede Differenz im Helligkeitsgrad zwischen sich entsprechenden Pixel in verschiedenen Blöcken berechnet wird und die Summe der Absolutwerte der Differenzen mit einem Schwellwert verglichen wird um den Einfluss von Rauschen zu verringern.
  • Bei der obigen bekannten Technik unter Verwendung von Daten für einen Frame existieren durchaus einige Fälle, bei welchen eine exakte Detektion der Bewegung nicht durchführbar ist. Man nehme an, dass basierend auf dem ersten Datenfeld ein weiteres „zweites Datenfeld" zur Bewegungsdetektion durch Heranziehen des Mittelwerts der Daten der oberen und unteren Scanzeilen im ersten Feld neu erzeugt werden. Das erste Feld, das original ist, weist ein scharfes Bild auf, wobei das zur Bewegungsdetektion zusammengesetzte zweite Feld im Allgemeinen einem unscharfen Bild mit horizontalen und schiefen und durch den Mittelungsprozess unscharfen Kanten entspricht. Mit anderen Worten unterscheiden sich die zwei Bilder in hohem Maße voneinander hinsichtlich der die vertikale Richtung betreffenden Raumfrequenzbandbereichen.
  • Wird die Differenz zwischen den zwei Bildern genommen, wird aus obigen Gründen die Differenz zwischen den Pixeldaten des ersten Feldes und den Pixeldaten des zweiten Feldes zur Bewegungsdetektion nicht immer klein, insbesondere in den Bereichen mit horizontalen und schiefen Kanten. Wird der resultierende Wert entsprechend mit einer festen Schwelle zur Bewegungsdetektion verglichen um zu beurteilen ob sich die Fläche bewegt, werden Flächen mit einer horizontalen oder schiefen Kante voraussichtlich fehlerhaft als bewegliche Punkte erkannt. Obwohl dieses Bewegungsdetektionsschema entwickelt wurde um die Verwendung des Datenframes für stationäre Bereiche zu ermöglichen, können lediglich flache Bereiche im Bild mit dem Datenframe wiedergegeben werden falls das Bild einer Ruhendbildbearbeitung unterzogen wird, während Kantenbereiche, die von größerer Bedeutung als Bildelemente sind dazu neigen fehlerhaft detektiert zu werden und von der Zwischenfeldinterpolation aufbereitet werden. Deshalb stellt das sich ergebende Bild keinen großen Unterschied zu demjenigen des Datenframes dar, welches lediglich aus dem Datenfeld ohne Durchführung der Bewegungsdetektion aufgebaut ist und geringfügige Verbesserungen der Bildqualität können erwartet werden.
  • Ist eine Anzahl von proximal zueinander liegenden Pixel in Blöcke unterteilt um die Bewegungsdetektion durchzuführen, besteht die Sorge, dass durchaus einige winzige Bewegungen versäumt werden, obgleich Vorkehrungen gegen Rauschen getroffen werden können.
  • EP-A-0 396 229 betrifft ein Gerät zur räumlichen Interpolation zwischen Zeilen eines digitalen Videosignals. Ein Supersampler interpoliert horizontal zwischen Samples und Blockabstimmungsschaltungen bestimmen das Maß der Übereinstimmung zwischen Blöcke von N × M Samples des Supersample-Signals, wobei die zwei Blöcke vertikal voneinander in gegengesetzte Richtungen bezogen auf eine zu interpolierende Zeile versetzt sind und horizontal zueinander in entgegengesetzte Richtungen mit Bezug zu einer bestimmten Sampleposition versetzt sind.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Erfindung wurde unter Betrachtung der obigen Probleme entwickelt und es ist ein Ziel der Erfindung ein Bilddateninterpolationsgerät anzugeben, welches in der Lage ist entsprechende glatte Interpolationen selbst für Kanten mit geringfügigen Gradienten durchzuführen und das ebenso in der Lage ist einen Frame von Bilddaten mit hoher Qualität aus einem einzelnen Bildfeld durch Entfernen von aufgrund von fehlerhafter Interpolation erzeugter Irregularitäten nach den Interpolationsschritten zum Verhindern der Interpolationsfehler zusammenzustellen.
  • Die Erfindung gibt ein Bilddateninterpolationsgerät entsprechend Anspruch 1 wieder.
  • Gemäß einer Ausführungsform der Erfindung erzeugt die Referenz-Pixel-Datenerzeugungseinrichtung die erste Zeile von Referenz-Pixeldaten durch Interpolation der entlang der benachbart und oberhalb des zu interpolierenden Zielpixels angeordneten Pixeldaten durch Einsetzen von Mittelwerten zweier benachbarter Pixel dazwischen. Entsprechend erzeugt die Einrichtung die zweite Zeile von Referenz-Pixeldaten durch Ausführen einer Interpolation der entlang der Scanzeile benachbart und unterhalb des Zielpixels angeordneten Pixeldaten durch Einsetzen der Mittelwerte zweier benachbarter Pixel dazwischen. Somit wird die Anzahl von Referenzpixeldaten in der horizontalen Richtung erhöht. Die Interpolationsrichtungs-Ermittlungseinrichtung ermittelt die Korrelation für jede Richtung durch Berechnung eines Korrelationswertes zwischen einem ersten Datenblock auf der oberen Scanzeile oberhalb des zu interpolierenden Zielpixels und eines zweiten Datenblocks, der auf der unteren Scanzeile liegt sowie an einer symmetrischen Position des ersten Blocks auf der gegenüberliegenden Seite des Zielpixels und gewichtet das berechnete Resultat der Korrelationswerte entsprechend der Interpolationsrichtung zur Ermittlung der optimalen Interpolationsrichtung für die Interpolation basierend auf dem berechneten Ergebnis. Die Interpolationspixel-Datenerzeugungseinrichtung erzeugt ein Teil der zu interpolierenden Pixeldaten für die zu interpolierenden Pixel unter Verwendung von Pixeldaten der in der entlang der Interpolationsrichtung gelegenen Pixel. Bei dem erfindungsgemäßen Bilddateninterpolationsgerät beurteilt die Beurteilungseinrichtung ob Interpolationsdaten der zu interpolierenden Pixel geeignet (oder fehlerhaft) sind basierend auf dem Vergleich der Interpolationspixeldaten mit den Pixeldaten der umgebenden Pixel (benachbart oder in der Nähe von) des zu interpolierenden Pixels durch Verwendung der Ableitungen zweiter Ordnung oder der achtfach gerichteten Laplaceverteilung. Als Ergebnis dieser Beurteilung erzeugt die Interpolationsdaten-Korrektureinrichtung Korrekturdaten aus den Pixeldaten der benachbart oder nahe des zu interpolierenden Pixels liegenden Pixel und ersetzt die Interpolationspixeldaten mit diesen Korrekturdaten um die geeignete Interpolation zu erzielen.
  • DETAILLIERTE BESCHREIBUNG DER ABBILDUNGEN
  • 1 ist ein Referenzdiagramm zur Darstellung eines Beispiels eines ursprünglichen Datenfeldes zur Erläuterung bekannter Techniken;
  • 2 zeigt ein Diagramm zur detaillierten Erläuterung des ursprünglichen Bildfeldes zur Erläuterung bekannter Techniken;
  • 3 zeigt ein Diagramm zur Erläuterung eines bekannten Verfahrens zur Interpolation, bei welchem zu interpolierende Pixel durch Verwendung entweder der oberen oder unteren benachbarten Pixel in der vertikalen Richtung erzeugt werden;
  • 4 zeigt ein Diagramm zur Erläuterung eines bekannten Verfahrens zur Interpolation, bei welchem zu interpolierende Pixel über Mittelwerte von den oberen und unteren angrenzenden Pixel in der vertikalen Richtung eingesetzt werden;
  • 5 ist ein Diagramm zur Erläuterung eines bekannten Verfahrens der Interpolation, bei welchem die Korrelation zwischen Pixel, die in einer schiefen Richtung bezüglich eines zu interpolierenden Pixels liegen ausgewertet werden;
  • 6 zeigt eine Abbildung zur Erläuterung eines Interpolationsverfahrens hinsichtlich fünf Richtungen;
  • 7 zeigt eine Abbildung zur Erläuterung eines Interpolationsverfahrens hinsichtlich sieben Richtungen;
  • 8 zeigt ein die Beurteilung zur Auswahl der Interpolationsrichtung basierend auf Korrelationen betreffendes Referenzdiagramm;
  • 9 zeigt ein die Beurteilung zur Auswahl der Interpolationsrichtung basierend auf Korrelationen betreffendes Referenzdiagramm;
  • 10 zeigt eine Darstellung zur Erläuterung eines Verfahrens zur Bewegungsdetektion unter Verwendung zweier Datenframes zur Erläuterung einer bekannten Technik;
  • 11 zeigt eine Darstellung zur Erläuterung eines Verfahrens zur Bewegungsdetektion unter Verwendung eines einzelnen Datenframes zur Erläuterung einer bekannten Technik;
  • 12 zeigt eine Darstellung zur Erläuterung wie die Pixeldaten zur Bewegungsdetektion in einem Verfahren zur Bewegungsdetektion unter Verwendung eines einzelnen Datenframes zusammengesetzt werden zur Erläuterung einer bekannten Technik;
  • 13 zeigt ein Blockdiagramm mit einer Anordnung eines Bilddateninterpolationsgerätes gemäß der Ausführungsform der Erfindung;
  • 14 zeigt eine Ansicht einer Bilddatenanordnung mit dem Layout von Pixeldaten um ein von einem Bilddatenerzeugungsgerät zu interpolierenden Pixel entsprechend der Ausführungsform der Erfindung;
  • 15 zeigt ein Diagramm zur Erläuterung einer Abfolge zum Erhalt von Referenzbilddaten durch ein Bilddatenerzeugungsgerät entsprechend der Ausführungsform der Erfindung;
  • 16 zeigt ein Diagramm zur Erläuterung eines Verfahrens zur Berechnung von Korrelationswerten, das von einem Bilddatenerzeugungsgerät gemäß der Ausführungsform der Erfindung ausgeführt wird;
  • 17 zeigt eine Abbildung zur Erläuterung fehlerhafter Interpolation, die von einem Bilddatenerzeugungsgerät entsprechend der Ausführungsform der Erfindung erzeugt wird,
  • 18 zeigt ein Ablaufdiagramm zur Erläuterung des Ablaufs der Interpolationsschritte und der Korrekturbehandlung, welche in einem Bilddateninterpolationsgerät gemäß der Ausführungsform der Erfindung ausgeführt werden;
  • 19 zeigt ein Blockdiagramm mit einem Aufbau eines Ruhendbilderzeugungsgerätes unter Verwendung eines Dateninterpolationsgerätes gemäß der Ausführungsform der Erfindung;
  • 20 zeigt eine Abbildung zur Erläuterung wie die Pixeldaten zur Detektion der Bewegung und ein Pixel, das über das Bilddateninterpolationsgerät entsprechend der Ausführungsform der Erfindung detektiert wird, aufgebaut ist;
  • 21 zeigt eine Abbildung zur Erläuterung wie der Schwellwert zur Detektion der Bewegung von Pixel um ein Pixel, dessen Bewegung über das Bilddateninterpolationsgerät entsprechend der Ausführungsform der Erfindung detektiert wird, aufgebaut ist;
  • 22 zeigt eine Abbildung eines Datenframes, der durch einfache Kombination zweier Datenfelder mit einem bewegten Bereich erhalten wird;
  • 23 zeigt eine Abbildung zur Erläuterung des Verfahrens zum Aufbau eines Datenframes, wobei die Daten der bewegten Bereiche durch Verwendung lediglich eines der beiden Felder erzeugt werden; und
  • 24 zeigt eine Ansicht zur Erläuterung eines Verfahrens zum Ausbilden von Paaren von Pixel, welche für die Beurteilung der Bewegungsdetektion sowohl oberhalb als auch unterhalb des zu interpolierenden Pixels verwendet werden.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Ein Bilddatenerzeugungsgerät und ein Verfahren zur Interpolation gemäß einer Ausführungsform der Erfindung werden mit Bezug zu 13 bis 16 beschrieben. 13 zeigt ein Blockdiagramm mit einem Aufbau eines Bilddateninterpolationsgerätes entsprechend der Ausführungsform der Erfindung. 14 zeigt eine Ansicht einer Bilddatenanordnung mit dem Layout von Pixeldaten um ein zu interpolierendes Pixel. 15 zeigt ein Diagramm zur Erläuterung eines Ablaufs einer horizontalen Interpolation zum Erhalt von Referenzbilddaten aus den in 14 gezeigten Bilddaten. 16 zeigt ein Diagramm zur Erläuterung eines Verfahrens zur Berechnung von Korrelationswerten auf den in 15 gezeigten Referenzbilddaten. 17 zeigt eine Abbildung zur Erläuterung einer fehlerhaften Interpolation von Bilddaten. 18 zeigt ein Ablaufdiagramm zur Erläuterung des Ablaufs der Interpolationsschritte der Ausführungsform.
  • Wie zunächst in 13 gezeigt ist, enthält das Bilddateninterpolationsgerät dieser Erfindung: einen A/D Konverter 101 zum Empfangen eines Eingangsvideosignals Pi und zur Digitalisierung Desselbigen zur Erzeugung von Bilddaten D; einen Frame-Speicher 102 zum Speichern von Bilddaten D für einen über den A/D Konverter 101 digitalisierten Frame; einen D/A Konverter 103 zur Durchführung einer D/A Umwandlung von Bilddaten D, die vom Frame-Speicher 102 auf Anweisung eines nachfolgend zu erläuternden Controllers zur Erzeugung eines Ausgangsvideosignals P0 übertragen werden; einen Controller 104 zum Steuern des Betriebs des A/D Konverters 101, D/A Konverters 103 und Frame-Speichers 102 auf Anweisung einer nachfolgend zu erläuternden CPU; und eine CPU 105 zur Durchführung der Berechnung von Korrelationen in Bilddaten D, die über den A/D Konverter 101 digitalisiert wurden und im Frame-Speicher 102 gespeichert sind und Steuern des Betriebs des Frame-Speichers 102 und Controllers 104.
  • Die folgende Beschreibung basiert auf der Annahme, dass Bilddaten D des digitalisierten Videoeingangssignals Pi Helligkeitsdaten darstellen.
  • Die CPU 105 weist einen RAM zum Speichern der berechneten Korrelationsdaten und einen ROM auf, in welchem ein Steuerprogramm gespeichert ist.
  • Nachfolgend wird das Verfahren zur Interpolation und der Betrieb des Bilddateninterpolationsgerätes entsprechend der Ausführungsform mit Bezug zu 13 bis 18 beschrieben.
  • Dieses Bilddateninterpolationsgerät erzeugt Pixeldaten von Zeilen '..., i – 2, i, i + 2, ...' basierend auf den Pixeldaten von Zeilen '..., i – 1, i + 1, ...', die bereits in einem Bildfeld vorliegen. Zur Vereinfachung der Beschreibung wird ein Fall gemäß dem in 18 gezeigten Ablaufdiagramm beschrieben, bei welchem Pixeldaten B(0) (im Folgenden als zu interpolierende Pixeldaten bezeichnet) um ein in einer Reihe 'i' und Spalte 'j' liegendes Pixel (als ein Interpolationspixel bezeichnet) in 14 zur Durchführung der Interpolation erzeugt werden.
  • Zunächst wird in 13 ein Eingangsvideosignal Pi in digitale Bilddaten D mit Hilfe des A/D Konverters 101 umgewandelt. Aus den umgewandelten Bilddaten D werden Bilddaten D für einen Frame in den Frame-Speicher 102 auf Anweisung des Controllers 104 eingespeist.
  • Aus den für einen Frame eingespeisten Bilddaten speichert der Frame-Speicher 102 die Bilddaten für das erste Feld in die den ungeradzahligen Zeilenadressen entsprechenden Speicherbereiche und die Bilddaten für die zweiten Felder in die den geradzahligen Zeilenadressen entsprechenden Speicherbereiche.
  • Eine in 13 gezeigte CPU 105 liest Pixeldaten A(–1) bis A(4) in Zeile 'i – 1' in 14 aus dem Frame-Speicher 102 aus. Danach werden Bilddaten, die durch Mitteln der Bilddaten zueinander benachbarter Pixel erhalten werden zwischen die besagten benachbarten Pixel wie in 15 gezeigt eingefügt, so dass Referenz-Pixeldaten P(–8) bis P(8) neu erzeugt werden können.
  • Auf ähnliche Weise können aus Pixeldaten C(–4) bis C(4) Referenz-Pixeldaten Q(–8) bis Q(8) erhalten werden (Schritt S1).
  • Im Speziellen werden die folgenden Berechnungen durchgeführt und das Resultat im RAM der CPU 105 gespeichert: P(k) = A(k/2) (k = –8, –6, –4, –2, 0, 2, 4, 6, 8) P(k) = {A((k – 1)/2) + A((k + 1)/2)}/2 (k = –7, –5, –3, –1, 1, 3, 5, 7) Q(k) = C(k/2) (k = –8, –6, –4, –2, 0, 2, 4, 6, 8) Q(k) = {C((k – 1)/2) + C((k + 1)/2)}/2 (k = –7, –5, –3, –1, 1, 3, 5, 7).
  • Die Methode zur Bereitstellung von Referenz-Pixeldaten P(–8) bis P(8) und Q(–8) bis Q(8) aus Pixeldaten A(–1) bis A(4) und C(–1) bis C(4) wird als horizontale Interpolationsmethode bezeichnet.
  • Nachfolgend werden Referenz-Pixeldaten P(·) und Q(·) der horizontalen Interpolationsmethode in Blöcke unterteilt mit jeweils drei aufeinanderfolgenden Teilen von Bilddaten wie in 16 gezeigt. Basierend auf der Summe der Differenzen zwischen den in Blöcken partitionierten Referenz-Pixeldaten wird ein Zwischenblock-Korrelationswert S(k) für jedes k berechnet (Schritt S2).
  • Im Speziellen werden Korrelationswerte S(k) über die folgende Berechnung bestimmt: S(k) = |P(k – 1) –Q(–k – 1)| + |P(k) – Q(–k)| + |P(k + 1) –Q(–k + 1)| (k = –7, –6, –5, –4, –3, –2 –1, 0, 1, 2, 3, 4, 5, 6, 7).
  • Für jeden Zwischenblock-Korrelationswert S(k) wird eine weitere Berechnung basierend auf der folgenden Formel zum Erhalt eines modifizierten Zwischenblock-Korrelationswertes T(k) durchgeführt (Schritt S3): T(k) = α(k)S(k) + β(k) (k = –7, –6, –5, –4, –3, –2 –1, 0, 1, 2, 3, 4, 5, 6, 7).
  • Dann wird der Wert 'k' der diesen modifizierten Zwischenblock-Korrelationswert T(k) minimiert, zum Kennzeichnen der Richtung für die optimale Interpolation (Schritt S4) ermittelt.
  • Hierbei entsprechen Korrekturkoeffizienten α(k) und β(k), die zum Erhalten des modifizierten Zwischenblock-Korrelationswertes T(k) aus dem Zwischenblock-Korrelationswert S(k) eingeführt wurden, Korrekturwerten, die mit der Zunahme des Absolutwertes von 'k' größer werden. Dieses Merkmal stellt sicher, dass falls zwei oder mehr Zwischenblock-Korrelationswerte S(k) für verschiedene Werte von k einander entsprechen oder eine geringe Differenz aufweisen, dasjenige 'k' das näher an Null ist vorzugsweise zur vorzugsweise zur Bestimmung der Interpolationsrichtung ausgewählt werden kann.
  • Selbst falls eine geringe Korrelation vorliegt stellt der Zwischenblock-Korrelationswert S(k), der durch Partitionierung der Referenz-Pixeldaten in Blöcke von drei Segmenten erhalten wurde, einen weitaus größeren Wert als die Korrelationswerte des Pixel-um-Pixel Vergleichs dar. Deshalb ist es ebenso unmöglich, geeignet schiefe Interpolationsrichtungen und Richtungen mit geringfügigen Gradienten auszuwählen selbst im Falle, dass Korrekturkoeffizienten α(k) und β(k) bestimmt werden, so dass die näher zur Vertikalen liegenden Richtungen für die Interpolation ausgewählt werden können. Die Anzahl von in einem Block partitionierten Referenz-Pixeldaten beim Berechnen von Zwischenblock-Korrelationswerten S(k) sollte nicht auf drei begrenzt sein, sondern diese kann wie erforderlich geeignet eingestellt werden.
  • Das sodann erhaltene 'k', das die am meisten bevorzugte Interpolationsrichtung angibt, wird zum Erhalt von zu interpolierenden Pixeldaten B(0) wie folgt verwendet (Schritt S5): B(0) = (P(k) + Q(–k))/2.
  • Dieser Interpolations-Pixeldatenwert B(0) wird in dem Speicherbereich in einer bestimmten Adresse, die dem über die Reihe 'i' und Zeile 'j' in 14 gezeigten Interpolationspixel entspricht, in dem Frame-Speicher 102 gespeichert (Schritt S6).
  • Auf dieselbe Weise wie oben werden zu verarbeitende Zielpixel nacheinander eins-um-eins zur Bestimmung all der zu interpolierenden Pixeldaten für die Pixel der Zeile 'i' in 14 gespeichert. Die sodann erhaltenen Daten werden in entsprechenden Speicherbereichen in bestimmten Adressen gespeichert, wobei zu interpolierende Pixeldaten für eine Zeile erhältlich sind (Schritt S7 → Schritt S8 → Schritt S1 → Schritt S7). Hierbei sollte das Auslesen der Pixeldaten A(•) und C(•) aus dem Frame-Speicher 102 und die horizontale Interpolationsmethode, welche beide für die Interpolation erforderlich sind, falls notwendig immer ausgeführt werden sobald das Ziel von einem Pixel auf ein weiteres Pixel wechselt.
  • Selbst wenn ein Bildframe über die obige Interpolationsmethode erzeugt wurde (Schritt S1 bis Schritt S8) lässt sich nicht behaupten, dass das Interpolationsergebnis gänzlich korrekt ist und es besteht weiterhin eine Möglichkeit des Auftretens fehlerhafter Interpolation. Nachfolgend wird die Maßnahme zur Korrektur (im Folgenden als Korrekturbehandlung bezeichnet) fehlerhafter Interpolation beschrieben, die in geringsten Ausmaßen auftreten kann. Diese Korrekturbehandlung besteht aus zwei Schritten: – einem Schritt zum Untersuchen der Bilddaten der Interpolationspixel und Identifi kation der Pixel, die mit fehlerhaften Daten interpoliert wurden (Schritt S9) sowie einem Schritt zum Ersetzen der als Interpolationsfehler ermittelten Bilddaten mit geeigneten Interpolationsdaten (Schritt S10).
  • Zunächst wird der Schritt zur Detektion von Interpolations-Pixeldaten erläutert, die aufgrund fehlerhafter Interpolation erzeugt wurden. Gewöhnlich wird das von einem Subjekt über einen Sicht-Sensor wie einer Kamera etc. aufgenommene Bild bis zu einem bestimmten Grad um an Grenzen von Musterelementen angeordneter Pixel aufgrund der Eigenschaften des optischen Systems und des im Sicht-Sensor verwendeten Bildgebungselements unscharf, falls dieses ein winziges Muster wie ein Punktmuster aufweist. Tritt jedoch fehlerhafte Interpolation auf, wird die Grenze sehr scharf, da diese synthetisch über die Interpolationsmethode gebildet wird. Die nachstehend beschriebene Korrekturbehandlung nutzt dieses Merkmal und eine Beurteilung ob eine fehlerhafte Interpolation aufgetreten ist erfolgt basierend auf diesem Merkmal.
  • Man nehme nun an, dass Interpolations-Pixeldaten B(0) in Reihe 'i' und Spalte 'j' in dem in 17 gezeigten Pixeldatenfeld Pixeldaten darstellen, welche aufgrund fehlerhafter Interpolation erzeugt wurden. Die Beschreibung stützt sich auf den Fall, bei dem die Interpolations-Pixeldaten B(0) korrigiert werden. In der Abbildung werden die Pixeldaten der Zeile 'i' über die Interpolationsmethode erhalten und die Korrekturbehandlung, die nachfolgend beschrieben wird, wird lediglich für die Pixeldaten der Zeilen durchgeführt, welche über die Interpolationsmethode erhalten wurden.
  • Die CPU 105 zeigt in 13 das Auslesen von Pixeldaten A(–1) bis A(1), B(–1) bis B(1) und C(–1) bis C(1) aus dem Frame-Speicher 102 und berechnet einen Auswertungswert 'd' über die Formel: d = |–A(0) + 2 × B(0) –C(0)| × |–B(–1) + 2 × B(0) – B(1)| × |–A(–1) + 2 × B(0) + C(1)| × |–A(1) + 2 × B(0) + C(–1)|.
  • Hierbei stellt der Auswertungswert 'd' ein Produkt der Absolutwerte der zweiten Ableitungen der Bilddaten in den vertikalen, horizontalen, oberen linken bis unteren rechten sowie oberen rechten bis unteren linken Richtungen dar. Dieser Wert kennzeichnet das Maß, bis zu dem Interpolations-Pixeldaten B(0) von den Pixeldaten der umgebenden Pixel isoliert sind.
  • Falls eine wie in 17 gezeigte fehlerhafte Interpolation auftritt wird der Pegel der Bilddaten im Allgemeinen erheblich verschieden von Denjenigen der umgebenden Pixel. Tritt dies auf, so stellt der Auswertungswert 'd' einen sehr hohen Wert dar. Deshalb können die Pixeldaten, dessen Auswertungswert 'd' größer als ein bestimmter Schwellwert sind, als Interpolationsfehler bestimmt werden, wodurch es möglich wird, auf einfache Art und Wei se die Zuverlässigkeit der über die Interpolationsmethode erhaltenen Pixeldaten zu beurteilen (Schritt S9). Diese Beurteilung wird als Interpolationszuverlässigkeitsbeurteilung bezeichnet.
  • Obwohl die Fähigkeit der Detektion von Interpolationsfehlern geringfügig abnimmt, kann die folgende achtfach gerichtete Laplaceverteilung als Auswertungswert 'd' verwendet werden: d = |8 × B(0) – A(–1) – A(0) – A(1) – B(–1) – B(1) – C(–1) – C(0) – C(1)|.
  • Wird ein Interpolationsfehler in der Stufe der Interpolationszuverlässigkeitsbeurteilung detektiert und die Interpolation als nicht geeignet bewertet, werden die Interpolations-Pixeldaten, die als fehlerhaft bewertet wurden, durch die Bilddaten, die in der vertikalen Richtung liegen, ersetzt (Schritt S10).
  • Genauer gesagt werden die Interpolation-Bilddaten des Interpolationspixel, das als fehlerhaft detektiert wurde durch die Interpolationsdaten der folgenden Formel ersetzt: B(0) = (A(0) + C(0))/2.
  • In diesem Fall stellen die Interpolationsdaten den Mittelwert der Pixeldaten der oberhalb und unterhalb des Interpolationspixel gelegenen Pixel dar, welches als fehlerhaft detektiert wurde.
  • So werden alle Pixeldaten der Zeile 'i' in 14, die während der Interpolationsmethode erzeugt wurden, der Korrekturbehandlung unterzogen (Schritt S9 bis Schritt S10). Auf diese Weise ist es möglich die Bilddaten für eine Zeile zu erhalten, bei der alle während der Interpolationsmethode erzeugte Interpolationsfehler korrigiert werden (Schritt S1 bis Schritt S8). Auf dieselbe Weise werden die Interpolationsmethode und die Korrekturbehandlung wie oben beschrieben für jede weitere zu interpolierende Zeile wiederholt bis letztendlich Bilddaten für einen Frame aus den Bilddaten für ein Feld erzeugt sind und die resultierenden Bilddaten werden dem Frame-Speicher 120 übermittelt. Auf diese Weise werden die Bilddaten für einen Frame, in dem fehlerhafte Interpolation korrigiert wurde und deshalb keine Irregularitäten sichtbar sind, in dem Frame-Speicher 120 gespeichert.
  • Werden die Bilddaten für einen Frame nach Abschluss der aufeinander folgenden Prozesse der Bilddateninterpolation, die aus der Interpolationsmethode und der Korrekturbehandlung besteht, erhalten, weist die CPU 105 den Controller 104 zur Steuerung des Frame-Speichers 102 und D/A Konverters 103 an, so dass die Bilddaten für einen in dem Frame-Speicher 102 gespeicherten Frame in Ausgabevideosignale P0 mit Hilfe des D/A Konverters 103 umgewandelt werden. Das sodann umgewandelte Signal wird vom Gerät an die Umgebung ausgegeben.
  • Obwohl in der Beschreibung der obigen Korrekturbehandlung die Interpolations-Bilddaten für ein Feld Zeile für Zeile durch Alternieren der Interpolationsmethode und der Korrekturbehandlung verarbeitet wurden ist es möglich, all die Pixeldaten für ein Feld zu einem Zeitpunkt nach der Vervollständigung der Interpolation zu korrigieren. Wird zudem ein hochqualitatives Bild lediglich durch die Interpolation erhalten, kann auf die Korrekturbehandlung verzichtet werden.
  • Bei der Beschreibung der horizontalen Interpolation, bei der die bei der Interpolationsmethode zu verwendenden Referenz-Pixeldaten aus den ursprünglichen Pixeldaten erzeugt werden, lässt sich die Anzahl von Daten zur Interpolation der Pixeldaten mit der horizontalen Interpolationsmethode beliebig erhöhen, obwohl die Referenz-Pixeldaten durch Einsetzen der Mittelwerte von zwei benachbarten Daten dazwischen bereitgestellt wurden. Zur Vereinfachung der Methode ist es ebenso möglich Pixeldaten A(•) und C(•) unmittelbar der ähnlichen Behandlung zu unterwerfen um die Interpolationsrichtung ohne Bereitstellen von Referenz-Pixeldaten P(•) und Q(•) zu ermitteln.
  • Obwohl sich darüber hinaus die CPU 105, die das Bilddateninterpolationsgerät dieser Ausführungsform darstellt, zur Ausführung der Berechnungen zur Auswertung der Korrelationen gemäß dem im ROM gespeicherten Programm eignet, wird der Hauptaspekt der Erfindung nicht auf diese Berechnungseinrichtung beschränkt. Somit kann die Berechnung auch von einer weiteren Hardware ausgeführt werden oder es ist ebenso möglich, eine auf einem PC oder einer Workstation installierte Software zu verwenden um die Interpolationsmethode durchzuführen.
  • Obwohl bei der Beschreibung der obigen Ausführungsform Helligkeitsdaten als Bilddaten angenommen wurden können beim Interpolieren des Chrominanz-Signals für ein Farbbild Daten entlang derselben Interpolationsrichtung wie für die Helligkeitsdaten zur Interpolation herangezogen werden.
  • Gemäß dem Bilddateninterpolationsgerät der obigen Ausführungsform ist es möglich, die Wahrscheinlichkeit zu verringern, dass fehlerhafte Pixeldaten, die für die gegenwärtige Kante nicht von Bedeutung sind, aus den Referenz-Pixeldaten zur Interpolation ausgewählt werden, zumal T(•) und Q(•), die durch Einsetzen der Mittelwerte der Pixeldaten von zwei benachbarten Pixel dazwischen erhalten werden als Referenz-Pixeldaten zur Bestimmung der Interpolationsrichtung festgesetzt werden. Da die Zustände der Pixel um ein zu interpolierendes Pixel für jeden Block aus drei proximalen Pixeldaten als eine Einheit zur Auswertung der Korrelation der umgebenden Pixel geprüft werden, ist es möglich fehlerhafte Interpolation im Vergleich zu dem Falle, bei dem die Differenz der Daten von zwei Pixel unmittelbar oberhalb und unterhalb des zu interpolierenden Pixel zur Ermittlung der Korrelation auf einfache Weise ausgewertet werden, zu reduzieren.
  • Entsprechend dem Bilddateninterpolationsgerät dieser Ausführungsform wird die Interpolationsrichtung basierend auf einer Auswertungsfunktion T(k) ermittelt, die auf eine derartige Weise modifiziert wird, dass den Bilddaten in der vertikalen Richtung eine höhere Priorität zukommt. Falls somit keine Korrelation in einer beliebigen Richtung festgestellt wird oder selbst falls die Differenz der Pixeldaten zwischen zwei Pixel entlang einer nicht geeigneten Interpolationsrichtung gefunden werden kann, wird der Minimalwert, der lediglich geringfügig kleiner als die Differenz der Pixeldaten zwischen zwei Pixel in der geeigneten Interpolationsrichtung ist herangezogen, so dass die näher zur vertikalen Richtung gelegenen Bilddaten wahrscheinlicher zur Interpolation herangezogen werden. Hieraus resultierend können die Pixeldaten der näher zum Zielpixel gelegenen Pixel für die Interpolation verwendet werden, so dass es möglich ist, fehlerhafte Interpolation zu verringern.
  • Entsprechend dem Bilddateninterpolationsgerät der Ausführungsform ist es möglich, einen Videodrucker zum Drucken hochqualitativer Bilder zu realisieren, falls ein Druckgerät anstatt des D/A Konverters 103 angeschlossen ist, obwohl der D/A Konverter 103 auf der Rückseite des Frame-Speichers 102 als Ruhendbildanzeigegerät verbunden ist.
  • Nachfolgend wird eine weitere Ausführungsform der Erfindung bzw. ein Bilddatenerzeugungsgerät mit einer Bewegungsdetektionseinrichtung zum Trennen von beweglichen Bereichen von stationären Bereichen innerhalb eines Bildes beschrieben.
  • Bezugnehmend auf 19 bis 24 wird das Bilddatenerzeugungsgerät dieser Ausführungsform der Erfindung beschrieben. 19 zeigt ein Blockdiagramm einer Anordnung des Bilddateninterpolationsgerätes entsprechend der Ausführungsform der Erfindung. 20 zeigt eine Ansicht mit Pixel um ein Pixel, dessen Bewegung detektiert wird. 21 zeigt eine Ansicht zur Erläuterung einer variierenden Komponente einer Schwelle zur Auswertung der Pixel um ein Pixel, dessen Bewegung detektiert wird. 22 zeigt eine Ansicht eines Datenframes, der durch einfache Kombination zweier Datenfelder, die einen bewegten Bereich aufweisen, erhalten wird. 23 zeigt eine Ansicht zur Erläuterung eines Ausbildungsverfahrens eines Datenframes, wobei Daten von bewegten Bereichen durch Interpolation lediglich eines der beiden Felder erzeugt werden. 24 zeigt eine Ansicht zur Darstellung eines Verfahrens zum Ausbilden von Paaren von Pixel, die zur Beurteilung der Bewegungsdetektion sowohl oberhalb als auch unterhalb des zu interpolierenden Pixels verwendet werden.
  • Wie in 19 gezeigt enthält das Bilddateninterpolationsgerät dieser Ausführungsform: einen A/D Konverter 101 zum Empfang eines Eingangsvideosignals Pi und zum Digitalisieren Desselbigen zur Erzeugung von Bilddaten D; einen Frame-Speicher 102 zum Speichern von Bilddaten D für einen Frame, der mittels des A/D Konverters 101 digitalisiert wurde; einen Controller 104 zum Steuern des Betriebs des A/D Konverters 101 und des Frame-Speichers 102 bei Überwachung durch die der nachfolgend erläuterte CPU; und eine CPU 105 zum Durchführen von Berechnungen zum Überprüfen und Ermitteln der Bewegung von Bilddaten D, welche digitalisiert wurden und im Frame-Speicher 102 gespeichert wurden sowie Steuern des Betriebs des Frame-Speichers 102 und Controllers 104. Hierbei weist die CPU 105 einen RAM zum Speichern von korrelierenden Betriebsdaten und einen ROM auf, in dem ein Steuerprogramm gespeichert ist.
  • Nachfolgend wird der Betrieb des Bilddateninterpolationsgeräts entsprechend der Ausführungsform mit Bezug zu 19 bis 24 beschrieben. Mit Bezug auf 20 ermittelt dieses Bilddateninter-polationsgerät basierend auf dem ersten Bildfeld oder im Speziellen der Pixeldaten der Zeilen '..., i – 1, i + 1, ...', ob das zweite Bildfeld oder die Pixeldaten der Zeilen '..., i – 2, i + 2, ...' bewegliche Punkte aufweisen. Im Folgenden wird eine Erläuterung für den Fall gegeben, bei dem beurteilt wird ob Pixeldaten eines in Reihe 'i' und Spalte 'j' gelegenen Pixel (siehe 20) ein beweglicher Punkt oder ein stationärer Punkt ist. Zunächst wird in 19 ein eingegangenes Videosignal Pi in digitalisierte Bilddaten D mit Hilfe das A/D Konverters 101 umgewandelt. Aus den umgewandelten Bilddaten D werden Bilddaten D für einen Frame in den Frame-Speicher 102 auf Anweisung des Controllers 104 eingegeben.
  • Aus den eingegangenen Bilddaten für eines Frames speichert der Frame-Speicher 102 die Bilddaten für das erste Feld in die Speicherbereiche entsprechend ungeradzahligen Zeilenadressen und die Bilddaten für die zweiten Felder in die Speicherbereiche entsprechend geradzahligen Zeilenadressen. Danach liest die CPU 105 wie in 19 gezeigt die eingegangenen Bilddaten bei 5 Punkten X(–2) bis X(+2) wie in 20 gezeigt aus dem Frame-Speicher 102 aus. Hierbei entsprechen X(–2) bis X(+2) dem Datenframe von mit [j, i – 2], ..., [j, i + 2] gekennzeichneten Pixel. Danach werden die folgenden Berechnungen in der CPU 105 vorgenommen. Zunächst ergeben sich die Bilddaten Y1(0) und Y2(0), deren Positionen in der vertikalen um 1/4 Pixel wie in 20 gezeigt verschoben werden, innerhalb entsprechender Felder durch lineare Interpolation zwischen Feldern. Beispielsweise ergeben sich die Bilddaten Y1(0) basierend auf X(1) und X(–1) bei einem Gewichtungsverhältnis von 3 : 1 (dies entspricht der Bedingung a = 1/4 in der ersten Ausführungsform) sowie einer Verschiebung um 1/4 Pixel hinsichtlich X(1). Entsprechend ergeben sich Bilddaten Y2(0) basierend auf X(0) und X(+2) und einer Verschiebung um 1/4 Pixel hinsichtlich X(0).
  • Dies lässt sich durch die folgende Formeln angeben: Y1(0) = (1/4)X(–1) + (3/4)X(+1) Y2(0) = (3/4)X(0) + (1/4)X(+2).
  • Sowohl Y1(0) als auch Y2(0) sind in jedem Frame an derselben Stelle lokalisiert. Somit sind zwei Bilder mit derselben Phase und demselben Frequenzbereich bezüglich der vertikalen Richtung aus zwei Datenfeldern aufgebaut. Nachfolgend wird der Absolutwert 'd' der Differenz zwischen Y1(0) und Y2(0) berechnet. Der Wert 'd' lässt sich ausdrücken als: d = |Y1(0) – Y2(0)|.
  • Dieses 'd' wird mit einem bestimmten Bewegungsdetektionsschwellwert 'th' verglichen. Falls d > th wird das Pixel [j, i] in 20 als bewegter Punkt bestimmt. Ansonsten wird das Pixel als stationärer Punkt festgelegt.
  • Bei dem bekannten Verfahren zur Bewegungsdetektion wird lediglich eines der beiden Felder durch einfache Interpolation zur Ausbildung des Datenframes ausgewertet. Somit werden Y1(0) und Y2(0) wie folgt gewählt: Y1(0) = (1/2)X(–1) + (1/2)X(+1) Y2(0) = X(0).
  • Somit ist der Frequenzbereich von Y1(0) verschieden von demjenigen von Y2(0) und dies kann als Ursache einer fehlerhaften Detektion betrachtet werden.
  • Da die beiden ausgebildeten Felder mit derselben Phase und demselben Frequenzbereich wie oben erwähnt für Y1(0) und Y2(0) der Ausführungsform verwendet werden, kann 'd' immer exakt ohne von der statistischen Natur des Bildes beeinflusst zu werden detektiert werden.
  • Der oben erwähnte Bewegungsdetektionsschwellwert 'th' wird als eine Summe der beiden Komponenten wie folgt definiert: th = th0 + th1.
  • Im Allgemeinen wird die Differenz zwischen den Feldern groß bei bewegten Bereichen, mit anderen Worten wird 'd' groß, weshalb der Punkt als bewegter Punkt festgelegt wird. Falls jedoch selbst ein Punkt einem stationären Bereich zugehörig ist und das betrachtete Pixel nahe der Kante eines stationären Objekts liegt, wird 'd' groß und das Pixel wird deshalb fehlerhaft als bewegter Punkt festgelegt. Um mit dieser Situation umzugehen wird 'th' in zwei Teile unterteilt, d.h. th0 und th1. Das 'th0' ist eine festgelegte Komponente, die als Grenzwert dient unterhalb derer die Bilddaten nicht als sichtbarer bewegter Punkt wahrgenommen werden können.
  • Der Wert th1 ist eine nicht-negative variable Komponente mit einem großen Wert, falls der betrachtete Punkt [j, i] oder X(0) in einem horizontalen Kantenbereich liegt. Hierbei ist th1 wie folgt festgelegt: th1 = k rnd(max(α,β)) (rnd(•): Rundung),wobei α = min(|X(–2) – X(0)|, |X(0) – X(+2)|) β = |X(–1) – X(+1)|.
  • In der obigen Formel sind α und β jeweils Parameter, die die Absolutwerte der Differenz der Pixeldaten innerhalb entsprechender Felder verwenden und diese werden an den horizontalen Kantenbereichen, die ruhen, groß. Deshalb wird 'th' groß, so dass X(0) nur noch mit geringer Wahrscheinlichkeit als bewegter Bereich festgelegt wird. Dies bedeutet, dass die fehlerhafte Detektion sich vermeiden lässt, falls ein betrachtetes Pixel nahe der Kante eines stationären Objekts liegt. Nachfolgend wird die obige Formel detailliert beschrieben. Ist in 21 X(0) ein bewegter Bereich (in 21(a)), können die Pixel von Daten, die demselben Feld zugehörig sind, näherungsweise als miteinander übereinstimmend betrachtet werden. Somit wird angenommen, dass die Differenz zwischen X(–2) und X(0) oder die Differenz zwischen X(0) und X(+2) klein sei. Liegt ein Pixel, das dem bewegten Bereich zugehörig ist, an der Kante (in 21(b)), so muss ein Pixel existieren, das nicht mit dem bewegten Bereich korreliert, entweder oberhalb oder unterhalb des betrachteten Pixel. Deshalb wird der Operator 'min' verwendet um α klein zu machen.
  • Liegen andererseits die fraglichen Daten innerhalb eines stationären horizontalen Kantenbereichs (in 21(c)), sind die Pixel von Daten, welche gegenüber mit der Grenzkante dazwischen liegen weniger miteinander korreliert, selbst falls diese demselben Feld zugehörig sind. Hieraus resultierend wird entweder α oder β groß. Zur Veranschaulichung in 21(c) wird ein geringer Wert |X(–2) – X(0)| für α über die Funktion von 'min' (•) ausgewählt, jedoch kennzeichnet β einen großen Wert |X(–1) – X(+1)|. Folglich wird der größere Wert oder β ausgewählt. Mit anderen Worten wird entweder α oder β je nach Größe verwendet. Auf diese Weise wird max(α,β) in einem bewegten Bereich klein, wogegen dieser in einem horizontalen Kantenbereich groß wird.
  • Hierbei stellt rnd(a) einen Rundungsoperator dar, der die niedrigeren unwichtigen Bits auslässt. Werden Irregularitäten aufgrund von Rauschen etc., die in dem Bild vorhanden sind, betrachtet, wird max(α,β) nicht immer Null und kann th 1 beeinflussen, was möglicherweise den Detektionsfehler verursacht. Das ist der Grund weshalb der Rundungsschritt eingeführt wurde. Ein Koeffizient 'k' ist ein Gewichtungskoeffizient, der die Balance zwischen dem variablen Bereich rnd(max(α,β)) und der fixen Komponente th0 darstellt und derart ausgewählt wird, dass der Fehler der Bewegungsdetektion und der fehlerhaften Detektion von horizontalen Kanten sich vermeiden lässt. CPU 105 vergleicht 'th' mit 'd' und legt fest, dass ein betrachtetes Pixel einen bewegten Punkt darstellt falls 'd' größer als 'th' ist, andernfalls stellt dieses einen stationären Punkt dar.
  • Die Verwendung der obigen Bewegungsdetektion ermöglicht es zwei Felder von Daten mit z.B. jeweils beweglichen Bereichen einen Frame eines ruhenden Bildes ohne Unschärfen auszubilden. Existiert ein bewegliches Objekt, werden zwei Datenfelder in einen Datenframe ohne jegliche Behandlung gesetzt und es erscheint das resultierende Bild des beweglichen Objektes als Bild mit Treppeneffekten, das hinsichtlich jeder zweiten weiteren Scanzeile wie in 22 dargestellt im Zickzack alterniert. Um dies zu verhindern, wird im Bereich mit der Bewegung lediglich eines der beiden Felder zur Interpolation zur Ausbildung eines Datenframes wie in 23 gezeigt verwendet.
  • Es sei ein Fall betrachtet, bei welchem das Verfahren dieser Ausführungsform auf die obige Datenanordnung eines Frames übertragen wird. Wird in diesem Falle ein betrachtetes Pixel mit Daten X(0) als ein beweglicher Punkt basierend auf dem Verfahren dieser Erfindung betrachtet, wird der Punkt [j, i] im Datenframe durch Interpolation unter Verwendung von X(–1) und X(+1) des im Vergleich zu X(0) zugehörigen anderen Feldes, anstelle der Verwendung von X(0), gebildet. Im Speziellen sind die Pixeldaten bei [j, i] wie folgt:
    falls X(0) ein bewegter Punkt ist:
    Pixeldaten bei [j, i] = (X(–1) + X(1))/2,
    und falls X(0) ein stationärer Punkt ist:
    Pixeldaten bei [j, i] = X(0).
  • Es erübrigt sich zu erwähnen, dass es ebenso möglich ist die Interpolation entsprechend der ersten Ausführungsform wie in 18 gezeigt auszuführen. Die CPU 105 führt die obige Berechnung durch.
  • Auf diese Weise wird das zu verarbeitende Ziel Pixel für Pixel verschoben und sobald alle Pixel der Zeilen '..., i – 2, i, i + 2, ...' vollständig abgearbei tet wurden wird ein hochqualitatives Bild ohne Unschärfen im Datenframe erzielt.
  • Oben wurde in einem der beiden Felder ein Interpolationspixel zur Bewegungsdetektion an einem Punkt zwischen den Scanzeilen, das den Pixelabstand in der vertikalen Richtung innen um ein Verhältnis von 1 : 3 unterteilt, angebracht, wobei in dem anderen Feld ein anderes Interpolationspixel zur Bewegungsdetektion an einem Punkt zwischen den Scanzeilen angebracht wurde, das den Pixelabstand in der vertikalen Richtung um ein Verhältnis von 3 : 1 innen unterteilt. Jedoch sollte die Art und Weise der Aufnahme von Interpolationspixel nicht hierauf beschränkt sein. Beispielsweise können die Interpolationspixel derart positioniert sein, dass der Pixelabstand in einem Verhältnis von a : 1–a unterteilt wird, wobei 0 < a < 1 und a = 0.5 gilt. Es bestehen Bedenken, dass ein geringfügiger Fehler der Bewegungsdetektion auftreten könnte, da die gesetzten Pixel zur Bewegungsdetektion an Positionen ausgebildet werden, welche von den gegenwärtigen Pixel entfernt sind. Um hiermit umgehen zu können, werden wie in 24 gezeigt weitere Pixel an symmetrischen Positionen in der vertikalen Richtung erzeugt, um dieselbe Bewegungsdetektion durchzuführen und die logische Summe der zwei aus der Bewegungsdetektion erhaltenen Ergebnisse können berechnet werden.
  • Obwohl die CPU 105, die die Bewegungsdetektionseinrichtung dieser Ausführungsform darstellt, zur Berechnung der Bewegungsdetektion gemäß dem im ROM gespeicherten Programm geeignet ist, ist der Hauptaspekt dieser Erfindung nicht auf diese Berechnungseinrichtung beschränkt. Somit kann die Berechnung auch über weitere Hardware durchgeführt werden oder es ist ebenso möglich eine in einem PC oder einer Workstation installierte Software zur Ausführung all der Interpolationsmethoden heranzuziehen.
  • Wie oben beschrieben wurde können erfindungsgemäß die folgenden Vorteile erzielt werden.
  • Erstens ist es möglich eine geeignete Interpolationsrichtung für jedes Pixel zu bestimmen, da die Interpolationsrichtung durch Auswerten der Korrelation zwischen den beiden Blöcken der sich gegenüberliegenden Referenzdaten mit einem zu interpolierenden dazwischenliegenden Pixel bestimmt wird. Somit ist es möglich, eine fehlerhafte Interpolation in der Interpolationsmethode drastisch zu reduzieren.
  • Entsprechend einer Ausführungsform der Erfindung werden fehlerhaft hervorgebrachte Pixeldaten detektiert, so dass diese durch die Interpolationsdaten basierend auf zu den fehlerhaften Pixeldaten umliegenden (benachbarten oder nahen) Daten der Pixel ersetzt werden. Somit ist es möglich sichtbare Irregularitäten aufgrund von Interpolationsfehlern, die sich während der Interpolationsmethode ergeben, praktisch zu unterdrücken.
  • Weiterhin werden erfindungsgemäß die Korrelationen durch Bestimmen von Gewichtungen entsprechend der Interpolationsrichtungen beurteilt und die Interpolation wird basierend auf dem Ergebnis der Beurteilung durchgeführt, so dass es möglich ist, eine glatte Interpolation mit weniger Treppeneffekten für Kanten mit geringfügiger Krümmung durchzuführen.
  • Weiterhin werden gemäß einer Ausführungsform der Erfindung zur Bestimmung von durch die Interpolationsmethode fehlerhaft interpolierten Pixeldaten die Ableitungen zweiter Ordnung oder achtfach gerichtete Laplaceverteilungen zur Berechnung der Auswertungswerte herangezogen, welche die Bedingungen der Isolation der Pixeldaten kennzeichnen und diese werden sehr groß falls die Pixeldaten fehlerhaft sind und basierend auf den Auswertungswerten wird beurteilt ob jeder Teil von aus der Interpolation erhaltenen Bilddaten geeignet ist oder nicht, so dass es möglich ist Interpolationsfehler einfach zu bestimmen.
  • Basierend auf der Ausführungsform der obigen Anordnung ist es möglich einen Datenframe eines ruhenden Bildes sehr hoher Qualität aus einem Frame von Daten zu erhalten, da Interpolationsfehler drastisch reduziert werden können und es praktisch möglich ist sichtbare Irregularitäten aufgrund von Interpolationsfehlern zu vermeiden.
  • Für ein Paar von Felddaten zur Bewegungsdetektion, deren Phasen und Frequenzbereiche hinsichtlich der vertikalen Richtung nahe beieinander liegen, die aus den zwei Datenfeldern des Interlaced-Abtastens gebildet sind, nämlich den ungeradzahligen Zeilenfeldern und geradzahligen Zeilenfeldern, und die miteinander verglichen werden ist es möglich die Bewegungsdetektion mit einer sehr hohen Präzision durchzuführen. Bei dem bekannten Verfahren wurde lediglich eines der beiden Felder für die Interpolation herangezogen und deshalb waren die Frequenzbereiche der beiden Felder verschieden voneinander, was eine fehlerhafte Detektion verursacht hat. Somit stellt das vorhergehende Merkmal eine merkliche Verbesserung gegenüber dem bekannten Verfahren dar.
  • Anstatt des Schemas mit zwei Frames, bei welchem eine Bewegungsdetektion durch Differenzbildung zweier Felder desselben Typs entsprechend dem Stand der Technik durchgeführt wird, wird ein Frame-Schema verwendet und es wird möglich den Betrieb mit einem Frame-Speicher aufrecht zu halten. Hieraus kann eine Kostenreduktion erwartet werden. Da die Schwelle zur Bewegungsbeurteilung in Form einer Summe einer variablen Komponente und einer fixen Komponente, die als Grenzwert derart festgelegt ist, dass das Bild nicht mehr als sichtbarer beweglicher Punkt erkannt werden kann, gegeben ist, überwiegt der fixe Wert bei der Detektion von beweglichen Bereichen. Folglich ist es möglich eine effektive Bewegungsdetektion ohne Fehler der Bewegungsdetektion aufgrund winzig unscharfer Bereiche zu erzielen.
  • Da zuletzt die Schwelle für die Bewegungsbeurteilung groß wird, falls Pixel, deren Bewegungen detektiert werden, an einer horizontalen Kante eines stationären Bereichs liegen, lässt sich eine fehlerhafte Beurteilung der Kante von stationären Bereichen als beweglicher Bereich verhindern, weshalb eine effektive Bewegungsdetektion ermöglicht wird.
  • Auf diese Weise ist es möglich eine ausgesprochen exakte Bewegungsdetektion für jegliche Typen von Bildern zu erzielen, da Fehler der Bewegungsdetektion aufgrund von winzig unscharfen Bereichen verhindert werden können und zudem eine fehlerhafte Beurteilung der Kanten eines stationären Bereichs als beweglicher Bereich verhindert wird.

Claims (1)

  1. Bilddateninterpolationsgerät zum Erzeugen eines Datenframes durch Verwenden eines von zwei Datenfeldern, welche jeweils Pixeldaten (A(–4) ... A(4), C(–4) ... C(4)) auf den ungeradzahligen Scanzeilen und den geradzahligen Scanzeilen eines Datenframes darstellen, so dass die Pixeldaten (B(0)) auf den geradzahligen oder ungeradzahligen Scanzeilen des anderen Feldes interpoliert werden, wobei ein Datenframe durch Interpolieren eines Datenfeldes erhältlich ist mit den Schritten: Ermitteln einer Interpolationsrichtung auf Basis eines zu interpolierenden Pixels; und Erzeugen von Interpolations-Pixeldaten entsprechend dem zu interpolierenden Pixel basierend auf den Pixeldaten der in der Interpolationsrichtung liegenden Pixel, wobei das Gerät aufweist: eine Referenz-Datenerzeugungseinrichtung (105) zum Erzeugen einer ersten Reihe von Referenz-Pixeldaten (P(–8) ... P(8)) durch Interpolieren einer Reihe der Pixeldaten (A(–4) ... (A4)) entsprechend zur Scanzeile der Pixel, die dem einen der zwei Felder zugeordnet ist und benachbart und oberhalb der zu interpolierenden Pixeldaten (B(0)) liegt sowie Erzeugen einer zweiten Reihe von Referenz-Pixeldaten (Q(–8) ... Q(8)) durch Interpolieren einer Reihe der Pixeldaten (C(–4) .. C(4)) entsprechend zur Scanzeile der Pixel, die dem einen der zwei Felder zugeordnet ist und benachbart und unterhalb der zu interpolierenden Pixeldaten (B(0)) liegt; einer Interpolationsrichtungs-Ermittlungseinrichtung (105) zum Ermitteln einer Interpolationsrichtung der zu interpolierenden Pixel basierend auf dem berechneten Ergebnis der Korrelationen T(k)) zwischen einem ersten Datenblock ((P(–8), P(–7), P(–6)), (P(–7), P(–6), P(–5)), ..., (P(–3), P(–2), P(–1)), .., (P(6), P(7), P(8))), der aus einer Gruppe von Pixeldaten einer bestimmten Anzahl von aufeinander folgenden Referenz-Pixel besteht und der ersten Reihe von Referenz-Pixeldaten (P(–8) ... P(8)) zugeordnet ist und einem zweiten Datenblock ((Q(6), Q(7), Q(8)), (Q(5), Q(6), Q(7)), ..., (Q(1), Q(2), Q(3)), ..., (Q(–8), Q(–7), Q(–6))), der aus einer Gruppe von Pixeldaten mit derselben Anzahl von aufeinander folgenden Referenz-Pixel besteht, der zweiten Reihe von Referenz-Pixeldaten (Q(–8) ... Q(8)) zugeordnet ist und gegenüber dem ersten Datenblock ((P(–8), P(–7), P(–6)), (P(–7), P(–6), P(–5)), ..., (P(–3), P(–2), P(–1)), .., (P(6), P(7), P(8))) liegt, wobei die zu interpolierenden Pixeldaten (B(0)) dazwischen liegen; und einer Interpolations-Pixeldaten-Erzeugungseinrichtung (105) zum Erzeugen von Daten (B(0)) für die zu interpolierenden Pixel basierend auf den Pixeldaten, die den in der von der Interpolationsrichtungs-Ermittlungseinrichtung ermittelten Interpolationsrichtung liegenden Pixel entsprechen und den Scanzeilen der einen der zwei Felder zugeordnet sind und benachbart, oberhalb und unterhalb der zu interpolierenden Pixel angeordnet sind, dadurch charakterisiert, dass jede der Korrelationen (T(k)) durch Gewichten einer Summe (S(k)) der Differenzen zwischen dem ersten Datenblock und dem zweiten Datenblock mit einem Korrekturwert (α(k), β(k)) basierend auf einem Abstand zwischen dem Interpolations-Pixel und dem ersten und zweiten Datenblock berechnet wird.
DE69733978T 1996-01-17 1997-01-17 Bilddateninterpolationsgerät Expired - Fee Related DE69733978T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP8005822A JPH09200575A (ja) 1996-01-17 1996-01-17 画像データ補間装置
JP582296 1996-01-17
JP8556796 1996-04-08
JP08556796A JP3411950B2 (ja) 1996-04-08 1996-04-08 動き検出装置

Publications (2)

Publication Number Publication Date
DE69733978D1 DE69733978D1 (de) 2005-09-22
DE69733978T2 true DE69733978T2 (de) 2006-06-22

Family

ID=26339829

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69733978T Expired - Fee Related DE69733978T2 (de) 1996-01-17 1997-01-17 Bilddateninterpolationsgerät

Country Status (7)

Country Link
US (1) US5832143A (de)
EP (1) EP0785683B1 (de)
KR (1) KR100215177B1 (de)
CN (1) CN1168052A (de)
DE (1) DE69733978T2 (de)
ES (1) ES2247616T3 (de)
MY (1) MY117289A (de)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3249729B2 (ja) * 1995-10-24 2002-01-21 シャープ株式会社 画像符号化装置及び画像復号装置
KR100271469B1 (ko) * 1997-02-25 2001-01-15 이민화 초음파스캔시스템의 디지탈스캔컨버터
US6002812A (en) * 1997-07-10 1999-12-14 Samsung Electronics Co., Ltd. Interpolation method for binary image
US6002813A (en) * 1997-07-10 1999-12-14 Samsung Electronics Co., Ltd. Interpolation method for binary image
US6122017A (en) * 1998-01-22 2000-09-19 Hewlett-Packard Company Method for providing motion-compensated multi-field enhancement of still images from video
JP2991180B2 (ja) * 1998-01-28 1999-12-20 日本電気株式会社 画素補間方法及び画素補間回路並びに画素補間プログラムを記録した記録媒体
JP3676948B2 (ja) 1999-07-07 2005-07-27 アルプス電気株式会社 画素数変換回路及びこれを用いた画像表示装置
WO2001011879A1 (fr) * 1999-08-05 2001-02-15 Sanyo Electric Co., Ltd. Procédé d'interpolation d'images
US6421090B1 (en) * 1999-08-27 2002-07-16 Trident Microsystems, Inc. Motion and edge adaptive deinterlacing
DE19951341B4 (de) * 1999-10-25 2012-02-16 Robert Bosch Gmbh Verfahren zur bewegungskompensierenden Prädiktion von Bewegtbildern sowie Einrichtung hierzu
US7171059B1 (en) * 2002-05-23 2007-01-30 Pixelworks, Inc. Method and apparatus for two-dimensional image scaling
US7324709B1 (en) * 2001-07-13 2008-01-29 Pixelworks, Inc. Method and apparatus for two-dimensional image scaling
US6965705B1 (en) * 2001-08-09 2005-11-15 Ndsp, Inc. Method and system for dynamic angle interpolation in image processing
US7502529B1 (en) * 2001-08-09 2009-03-10 Pixelworks, Inc. Low level video detail tracking by intuitionistic fuzzy relationship calculus
US7865041B1 (en) 2001-08-09 2011-01-04 Pixelworks, Inc. Artifacts measurement on video decomposable properties by dynamic fuzzy reasoning
US7088392B2 (en) * 2001-08-27 2006-08-08 Ramakrishna Kakarala Digital image system and method for implementing an adaptive demosaicing method
KR100423504B1 (ko) * 2001-09-24 2004-03-18 삼성전자주식회사 영상신호의 라인보간 장치 및 방법
US7245326B2 (en) * 2001-11-19 2007-07-17 Matsushita Electric Industrial Co. Ltd. Method of edge based interpolation
JPWO2004034326A1 (ja) * 2002-10-08 2006-02-09 ソニー株式会社 画像変換装置、画像変換方法、および、画像投射装置
US7242819B2 (en) * 2002-12-13 2007-07-10 Trident Microsystems, Inc. Method and system for advanced edge-adaptive interpolation for interlace-to-progressive conversion
KR100506086B1 (ko) * 2002-12-26 2005-08-03 삼성전자주식회사 영상의 재현 품질 향상 장치 및 그 방법
KR100943595B1 (ko) * 2003-01-30 2010-02-24 삼성전자주식회사 영상신호의 블러링 판단장치 및 방법
JP3767593B2 (ja) * 2003-10-07 2006-04-19 三菱電機株式会社 画素補間回路及び画素補間方法
JP3810404B2 (ja) * 2003-11-10 2006-08-16 三菱電機株式会社 画素補間回路、及び画素補間方法
US7345708B2 (en) * 2003-12-23 2008-03-18 Lsi Logic Corporation Method and apparatus for video deinterlacing and format conversion
US7525584B2 (en) * 2004-01-05 2009-04-28 Lifesize Communications, Inc. Fast edge directed demosaicing
AU2005203001B2 (en) * 2004-07-12 2008-07-17 Canon Kabushiki Kaisha Processing interlaced video in a frame based rendering system
US7554602B2 (en) 2004-07-12 2009-06-30 Canon Kabushiki Kaisha Processing interlaced video in a frame based rendering system
US7864221B2 (en) * 2004-10-15 2011-01-04 Lifesize Communications, Inc. White balance for video applications
US7545435B2 (en) * 2004-10-15 2009-06-09 Lifesize Communications, Inc. Automatic backlight compensation and exposure control
JP2006148827A (ja) * 2004-11-25 2006-06-08 Oki Electric Ind Co Ltd 走査線補間装置、及び走査線補間方法
KR100636971B1 (ko) * 2004-12-30 2006-10-19 매그나칩 반도체 유한회사 이미지센서의 포커스 데이타 생성 장치 및 방법
GB2422974A (en) * 2005-02-04 2006-08-09 Imagination Tech Ltd De-interlacing of video data
GB2422975B (en) * 2005-02-08 2007-12-12 Imagination Tech Ltd Conversion of video data from interlaced to non-interlaced format
GB2422976B (en) * 2005-02-08 2007-05-23 Imagination Tech Ltd Conversion of video data from interlaced to non-interlaced format
US7522214B1 (en) 2005-06-27 2009-04-21 Magnum Semiconductor, Inc. Circuits and methods for deinterlacing video display data and systems using the same
US7450184B1 (en) 2005-06-27 2008-11-11 Magnum Semiconductor, Inc. Circuits and methods for detecting 2:2 encoded video and systems utilizing the same
US7414671B1 (en) 2005-06-30 2008-08-19 Magnum Semiconductor, Inc. Systems and methods for display object edge detection and pixel data interpolation in video processing systems
US7538824B1 (en) 2005-08-18 2009-05-26 Magnum Semiconductor, Inc. Systems and methods for reducing noise during video deinterlacing
GB2431803A (en) * 2005-10-31 2007-05-02 Sony Uk Ltd Alias avoidance in image processing
US7554559B2 (en) * 2005-11-08 2009-06-30 Intel Corporation Edge directed de-interlacing
US8311129B2 (en) * 2005-12-16 2012-11-13 Lifesize Communications, Inc. Temporal video filtering
EP1841205A1 (de) * 2006-03-29 2007-10-03 Sony Deutschland Gmbh Bewegungsdetektion in einer Zeilensprunghalbbilderfolge
US7667762B2 (en) * 2006-08-01 2010-02-23 Lifesize Communications, Inc. Dual sensor video camera
JP4751866B2 (ja) 2006-09-13 2011-08-17 エーエスエムエル マスクツールズ ビー.ブイ. ターゲットパターンを複数のパターンに分解するための方法、そのコンピュータプログラムを記憶するコンピュータ読取可能記憶媒体、デバイス製造方法、およびマスクを生成するための方法
JP4861114B2 (ja) * 2006-09-27 2012-01-25 株式会社東芝 映像信号処理装置
EP1931136B1 (de) * 2006-12-08 2016-04-20 Panasonic Intellectual Property Corporation of America Blockbasierter Zeilenkombinationsalgorithmus zur Zeilensprungaufhebung
JP2010035157A (ja) * 2008-06-27 2010-02-12 Panasonic Corp 画像処理装置
KR101544914B1 (ko) * 2009-02-12 2015-08-17 삼성전자주식회사 보간 픽셀을 생성하는 방법
US8675137B2 (en) * 2010-04-13 2014-03-18 Newport Media, Inc. Apparatus and method for adaptive filtering
CN102480632B (zh) * 2010-11-24 2014-10-22 群光电子股份有限公司 三维影像处理系统、摄影装置及其影像产生装置
US8891906B2 (en) * 2012-07-05 2014-11-18 Intel Corporation Pixel-adaptive interpolation algorithm for image upscaling

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63205778A (ja) * 1987-02-20 1988-08-25 Sumitomo Electric Ind Ltd ビデオ信号デイジタル化回路
JPH02131689A (ja) * 1988-07-22 1990-05-21 Toshiba Corp フィールド内補間回路
US5294984A (en) * 1988-07-23 1994-03-15 Ryoichi Mori Video signal processing system for producing intermediate pixel data from neighboring pixel data to improve image quality
GB2231460B (en) * 1989-05-04 1993-06-30 Sony Corp Spatial interpolation of digital video signals
US5243422A (en) * 1990-11-13 1993-09-07 Hitachi, Ltd. Field converting method for television signals and device for realizing same
US5410356A (en) * 1991-04-19 1995-04-25 Matsushita Electric Industrial Co., Ltd. Scanning-line interpolation apparatus
JPH05153562A (ja) * 1991-12-02 1993-06-18 Matsushita Electric Ind Co Ltd 相関検出補間方法および装置
US5347599A (en) * 1991-06-14 1994-09-13 Matsushita Electric Industrial Co., Ltd. Adaptive interpolation method and apparatus using correlation detection
US5369449A (en) * 1991-11-08 1994-11-29 Matsushita Electric Industrial Co., Ltd. Method for predicting move compensation
JP3064598B2 (ja) * 1991-12-02 2000-07-12 松下電器産業株式会社 相関検出補間方法および装置
FI89995C (fi) * 1991-12-31 1993-12-10 Salon Televisiotehdas Oy Foerfarande foer randadaptiv interpolation av en tv-bilds linje samt en interpolator
EP0561286B1 (de) * 1992-03-20 1997-06-18 THOMSON multimedia Verfahren und Vorrichtung zur richtungsabhängigen Interpolation
US5291280A (en) * 1992-05-05 1994-03-01 Faroudja Y C Motion detection between even and odd fields within 2:1 interlaced television standard
JPH06141283A (ja) * 1992-10-28 1994-05-20 Sony Corp 静止画表示装置
US5617143A (en) * 1993-03-29 1997-04-01 Canon Kabushiki Kaisha Movement detection device and encoding apparatus using the same
US5561532A (en) * 1993-03-31 1996-10-01 Canon Kabushiki Kaisha Image reproducing apparatus
JP3070891B2 (ja) * 1993-04-02 2000-07-31 富士写真フイルム株式会社 画像補間処理方法及びカラービデオプリント方法
FI96559C (fi) * 1994-06-10 1996-07-10 Nokia Technology Gmbh Menetelmä reunan suunnan tunnistamiseksi lomitellussa televisiokuvassa
JP3164481B2 (ja) * 1994-12-20 2001-05-08 シャープ株式会社 撮像装置

Also Published As

Publication number Publication date
EP0785683B1 (de) 2005-08-17
KR100215177B1 (ko) 1999-08-16
EP0785683A2 (de) 1997-07-23
EP0785683A3 (de) 1999-10-06
ES2247616T3 (es) 2006-03-01
MY117289A (en) 2004-06-30
DE69733978D1 (de) 2005-09-22
CN1168052A (zh) 1997-12-17
US5832143A (en) 1998-11-03

Similar Documents

Publication Publication Date Title
DE69733978T2 (de) Bilddateninterpolationsgerät
DE10212915B4 (de) Elektroendoskopsystem mit Elektroendoskopen mit verschiedenen Pixelanzahlen
DE60120031T2 (de) Gerät und Verfahren zum Verdecken von Interpolationartefakten in einem Umwandler von Zeilensprungsvideo in Video mit progressiver Abtastung
DE4411179B4 (de) Bildeinfangvorrichtung
DE60314692T2 (de) Digitalbildverfahren und -vorrichtung zum Zusammenfügen von Entfernung des Mosaikeffekts und Korrektur von schlechten Pixeln
DE602004009702T2 (de) Verfahren und System zur automatischen Reduzierung von Aliasing-Artefakten
DE60020019T2 (de) Prüfung der Dekodierung von Bitströmen
DE4108288C2 (de)
DE602005003624T2 (de) Bildverarbeitungsvorrichtung und - verfahren
DE19920812A1 (de) Einrichtung zum Erzeugen einer interpolierten Videozeile
DE4212813A1 (de) Verfahren und vorrichtung zur bewegungsdetektion
DE60031594T2 (de) Verfahren und Vorrichtung zum Interpolieren von Zeilen
DE69626475T2 (de) Verfahren zur Korrektur von Bewegungsschätzung in Bildern mit periodischen Strukturen
DE102007037857A1 (de) Verfahren zur Reduktion von Bildartefakten
DE10084783B3 (de) System und Verfahren zur Generierung von Videoframes
DE2261228C2 (de) Verfahren und Schaltungsanordnung zur Unterdrückung des Kammeffekts bei der Aufzeichnung von dem Zeilensprungverfahren entsprechenden Videosignalen auf Kinofilm
DE60114520T2 (de) Farbbildaufnahmegerät
EP2105883A1 (de) Verfahren zum Testen eines Bewegungsvektors
DE102006006835A1 (de) Verfahren und Vorrichtung zum Scannen von Bildern
DE102011117654B4 (de) Verfahren zum Betreiben einer Bildverarbeitungseinrichtung sowie entsprechende Bildverarbeitungseinrichtung
DE10254469B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Frequenz für die Abtastung analoger Bilddaten
EP1397002B1 (de) Gradientengestütztes Verfahren zur Bildpunktinterpolation
EP0739130B1 (de) Verfahren und Schaltungsanordnung zur Bild-im-Bild-Einblendung
EP0639922B1 (de) Schaltung zur Bewegungsdetektion für ein Bildsignal
DE60019686T2 (de) Bildanzeigevorrichtung und Anzeigeverfahren

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee