DE69633039T2 - Vorrichtung und Verfahren zur Umwandlung eines Signals - Google Patents

Vorrichtung und Verfahren zur Umwandlung eines Signals Download PDF

Info

Publication number
DE69633039T2
DE69633039T2 DE69633039T DE69633039T DE69633039T2 DE 69633039 T2 DE69633039 T2 DE 69633039T2 DE 69633039 T DE69633039 T DE 69633039T DE 69633039 T DE69633039 T DE 69633039T DE 69633039 T2 DE69633039 T2 DE 69633039T2
Authority
DE
Germany
Prior art keywords
video signal
activity
code
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69633039T
Other languages
English (en)
Other versions
DE69633039D1 (de
Inventor
Tetsujiro Kondo
Yasuhiro Fujimoro
Hideo Nakaya
Kenji Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of DE69633039D1 publication Critical patent/DE69633039D1/de
Publication of DE69633039T2 publication Critical patent/DE69633039T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0145Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being class adaptive, i.e. it uses the information of class which is determined for a pixel based upon certain characteristics of the neighbouring pixels

Description

  • Die vorliegende Erfindung bezieht sich auf ein Signalumsetzungsgerät und auf ein Signalumsetzungsverfahren. Ausführungsformen der Erfindung sind bei Aufwärtsumsetzern anwendbar, um Standardauflösungssignale (SD), beispielsweise NTSC-Signale oder dgl. in Hochauflösungssignale (HD), beispielsweise für Hochauflösungsfernsehen oder dgl. umzusetzen.
  • Bisher führen diese Art von Aufwärtsumsetzern eine Frequenzinterpolation bezüglich SD-Videosignalen durch, um die Anzahl von Pixeln in den SD-Videosignalen zu steigern, um HD-Videosignale zu erzeugen. Beispielsweise verdoppeln, wie in 1 gezeigt ist, diese Aufwärtsumsetzer die Frequenzinterpolation bezüglich der Horizontalrichtung und der Vertikalrichtung in bezug auf ein SD-Videosignal, welches aus Pixeln besteht, die durch große "O" Markierungen und große "Δ" Markierungen dargestellt sind, auf Abtastzeilen 1 eines HD-Bilds, um ein HD-Videosignal zu erzeugen, welches aus Pixeln besteht, welche durch kleine "O" Markierungen und kleine "Δ" Markierungen dargestellt werden.
  • Als Beispiel zum Durchführen einer Interpolation unter Verwendung eines Aufwärtsumsetzers gibt es ein Verfahren, welches HD Pixel an vier unterschiedlichen Positionen von Teilbilddaten eines SD-Videosignals erzeugt. Wenn man beispielsweise ein SD-Pixel, welches durch eine Markierung "
    Figure 00010001
    " dargestellt wird, betrachtet, werden HD-Pixel an vier unterschiedlichen Positionen eines Modus 1 eines Modus 2 eines Modus 3 und eines Modus 4 in der Nähe des SD-Pixels "
    Figure 00010002
    " durch Interpolation von umgebenden SD-Pixeln erzeugt. Ein zweidimensionales nichttrennbares Intra-Raum-Filter 2, welches in 2 gezeigt ist, und ein horizontales/vertikales trennbares Filter 3, welches in 3 gezeigt ist, werden für diesen Betrieb als Interpolationsfilter verwendet.
  • Das zweidimensionale nichttrennbare Filter 2 verwendet zweidimensionale Filter 4A bis 4D, um eine Interpolation unabhängig durchzuführen, um HD-Pixel an vier Positionen eines Modus 1, eines Modus 2, eines Modus 3 und eines Modus 4 zu erzeugen, und setzt die entsprechenden Interpolationsergebnisse in eine serielle Form in einem Auswahlorgan 5 um, um ein HD-Videosignal zu erzeugen.
  • Das horizontale/vertikale Trennbarfilter 3 führt eine Interpolation für Pixel an den Positionen des Modus 1, Modus 3 mit einem vertikalen Interpolationsfilter 6A durch, und es führt eine Interpolation für Pixel an den Positionen von Modus 2, Modus 4 mit einem vertikalen Interpolationsfilter 6B durch, um Daten auf zwei Abtastzeilen eines HD-Videosignals zu erzeugen. Danach verwendet das Filter 3 horizontale Interpolationsfilter 7A und 7B auf den entsprechenden Abtastzeilen, um HD-Pixel an den vier Positionen zu interpolieren, und setzt die Interpolationsergebnisse in eine serielle Form in einem Auswahlorgan 8 um, um ein HD-Videosignal zu erzeugen.
  • Obwohl der herkömmliche Aufwärtsumsetzer wie oben beschrieben ein ideales Filter als Interpolationsfilter verwendet, bleibt die räumliche Auflösung eines resultierenden HD-Videosignals identisch zu dem eines ursprünglichen SD-Videosignals, obwohl die Anzahl von Pixel im HD-Videosignal vergrößert ist. Außerdem hat der herkömmliche Aufwärtsumsetzer eine Schwierigkeit dahingehend, dass er lediglich ein HD-Videosignal erzeugen kann, welches eine niedrigere Auflösung als die eines ursprünglichen SD-Videosignals hat, da ein ideales Filter in der Praxis nicht verwendet werden kann.
  • Als Verfahren zum Lösen des oben erwähnten Problems wurde ein adaptives Klassifizierungsverarbeitungsverfahren vorgeschlagen, welches ein geliefertes SD-Videosignal in mehrere Klassen auf der Basis von dessen Kennlinien klassifiziert und Vorhersagekoeffizienten verwendet, welche die Vorhersagedaten umfassen, die vorher durch Lernen für jede Klasse erzeugt wurden, um ein HD-Videosignal mit einer hohen Auflösung zu erzeugen. Ein Beispiel ist aus der EP-A 0 635 978 (Sony Corporation) bekannt, in welcher ein Aufwärtsumsetzungsverfahren offenbart ist. Bei dem Verfahren wird ein Standardauflösungssignal (SD) in ein Hochauflösungssignal (HD) umgesetzt. Das Verfahren umfasst das Schätzen von HD-Pixeln, so dass Pixel eines Objekts, welche geschätzt werden sollen, gemäß der Pegelverteilung von mehreren Referenzpixeln des SD-Signals klassifiziert werden. Bei einem Prozess, welches die Schritte 31 bis 37 aufweist, treten die folgenden Schritte auf.
  • Im Schritt 31 "START" wird die Steuerung der Aufwärtsumsetzungsverarbeitung begonnen. Im Schritt 32 "SEGEMENTIERE DATEN IN BLOCK" wird ein SD-Signal geliefert. In diesem Schritt werden SD-Pixeln für jeden Block extrahiert. Im Schritt 33 "DATENENDE?" läuft der Verarbeitungsfluss, wenn alle Eingangsdaten vollständig verarbeitet sind, weiter zum Schritt 37 "ENDE". Wenn nicht, läuft der Verarbeitungsfluss weiter zum Schritt 34 "BESTIMME KLASSE".
  • Im Schritt 34 "BESTIMME KLASSE" wird eine Klasse entsprechend eines Verteilungsmusters des Signalpegels des SD-Signals bestimmt. Beispielsweise wird eine Klasse bestimmt, welche Daten entspricht, welche durch beispielsweise das Einbit-ADRC-Verfahren komprimiert wurden (welches das Bestimmen des dynamischen Bereichs von einem Block von Pixeln durchführt). Im Schritt 35 werden Vorhersagekoeffizienten, die dem Klassencode entsprechen, aus dem Speicher gelesen. Im Schritt 36 "BERECHNE VORHERSAGEWERT" wird der Vorhersagewert y' des HD-Pixels aus dem SD-Signal und dem Vorhersagekoeffizienten berechnet, und es wird der Vorhersagewert y' des HD-Pixels ausgegeben. Die Sequenz dieser Schritte wird für alle Daten wiederholt. Wenn alle Daten vollständig verarbeitet sind, läuft der Verarbeitungsfluss weiter vom Schritt 33 "DATENENDE" zum Schritt 37 "ENDE". Damit ist der Aufwärtsumsetzungsprozess beendet.
  • Wie oben beschrieben speichert der Speicher die Vorhersagekoeffizienten, die gelernt wurden.
  • Als weiteres Beispiel wurde ein derartiges Verfahren durch Sony Corporation in der Anmeldung und den Zeichnungen der US-PS 5 517 588 , die am 17. Mai 1993 angemeldet wurde, vorgeschlagen.
  • Dieses adaptive Klassifizierungsverarbeitungsverfahren bringt jedoch ein Problem mit sich, dass die Vorhersagegenauigkeit für das HD-Videosignal, welches dadurch erzeugt wird, verschlechtert wird, wenn keine genaue Klassifizierung gemäß der Kennlinie des gelieferten SD-Videosignals ausgeführt wird, wenn Vorhersagekoeffizienten durch Lernen erzeugt werden. Anders ausgedrückt können ohne ausreichende Klassifizierungsfähigkeit HD-Signale, die im Wesentlichen in verschiedenen Klassen klassifiziert würden, in die gleiche Klasse gruppiert. Daher werden Vorhersagekoeffizienten, welche durch Lernen erzeugt werden, einen Durchschnittswert von HD-Videosignalen unterschiedlicher Natur vorhersagen, was eine verschlechterte Auflösungswiederherstellungsfähigkeit zur Folge hat.
  • Die Erfindung ist den Patentansprüchen 1 bis 33 definiert.
  • Ein Merkmal der vorliegenden Erfindung stellt ein Signalumsetzungsgerät bereit, um ein geliefertes erstes Videosignal in ein zweites Videosignal umzusetzen, welches gegenüber dem ersten Videosignal verschieden ist, welches aufweist:
    eine Einrichtung zum Auswerten einer räumlichen Aktivität des ersten Videosignals, um einen Aktivitätscode zu erzeugen;
    eine Einrichtung zum Klassifizieren des ersten Videosignals auf der Basis dieses Aktivitätscodes und der Arten von Pixelmustern des ersten Videosignals, um einen Klassencode auf der Basis des Ergebnisses der Klassifizierung zu erzeugen;
    einen Vorhersagekoeffizientenspeicher, der Vorhersagekoeffizienten speichert, die bei der Vorhersageerzeugung des zweiten Videosignals verwendet werden; und
    eine Einrichtung zur Vorhersageberechnung des zweiten Videosignals vom ersten gelieferten Videosignal unter Verwendung der Vorhersagekoeffizienten, die aus dem Vorhersagekoeffizientenspeicher gelesen werden, gemäß dem Aktivitätscode und dem Klassencode.
  • Das erste Videosignal kann ein Videosignal niedrigerer Auflösung sein, und das zweite Videosignal kann ein Signal mit höherer Auflösung als das Videosignal niedrigerer Auflösung sein.
  • Das zweite Videosignal kann ein Videosignal sein, welches eine Anzahl von Pixeln hat, die größer ist die des ersten Videosignals.
  • Die Auswertungseinrichtung zum Erzeugen des Aktivitätscodes kann die Intra-Raumaktivität und die Aktivität in einer zeitlichen Richtung des ersten Videosignals auswerten, um den Aktivitätscode auszugeben.
  • Die Klassifikationseinrichtung zum Erzeugen des Klassencodes kann mehrere unterschiedliche Pixelmuster des ersten Videosignals festlegen, ein genanntes Pixelmuster aus mehreren der gesetzten Pixelmuster gemäß dem Aktivitätscode auswählen und den Klassencode in Abhängigkeit vom Aktivitätscode und vom ausgewählten Muster erzeugen.
  • Bei einer Ausführungsform der Erfindung wird die räumliche Aktivität des gelieferten Videosignals ausgewertet, und es werden schrittweise Klassifikationen für das gelieferte Videosignal gemäß dem erhaltenen Aktivitätscode ausgeführt. Auf diese Weise können nachfolgende Klassifikationen die Genauigkeit steigern, wobei die räumliche Aktivitätscharakteristik des gelieferten Videosignals widergespiegelt wird. Da außerdem das Ergebnis der vorherigen Klassifikation auf die nachfolgenden Klassifikationen reflektiert wird, kann die Klassifikation mit einer hohen Genauigkeit ausgeführt werden.
  • Ein weiteres Merkmal der vorliegenden Erfindung stellt ein Videosignal-Umsetzungsverfahren bereit, um ein geliefertes ersten Videosignal in ein zweites Videosignal umzusetzen, welches gegenüber dem ersten Videosignal verschieden ist, welches folgende Schritte aufweist:
    Auswerten einer räumlichen Aktivität des ersten Videosignals, um einen Aktivitätscode zu erzeugen;
    Klassifizieren des ersten Videosignals auf der Basis dieses Aktivitätscodes und der Arten von Pixelmustern des ersten Videosignals, um einen Klassencode auf der Basis des Ergebnisses der Klassifizierung zu erzeugen;
    Lesen von Vorhersagekoeffizienten, welche in einem Vorhersagekoeffizientenspeicher gespeichert sind, zur Verwendung bei einer Vorhersageerzeugung des zweiten Videosignals; und
    Vorhersageberechnen des zweiten Videosignals vom ersten Videosignal unter Verwendung der Vorhersagekoeffizienten, die vom Speicher gelesen werden, gemäß dem Aktivitätscode und dem Klassencode.
  • Ausführungsformen der Erfindung versuchen, ein Signalumsetzungsgerät und ein Signalumsetzungsverfahren bereitzustellen, die in der Lage sind, Videosignale niedrigerer Auflösung in Videosignale höherer Auflösung durch geeignete Klassifikationen entsprechend einer Vielzahl von Signalkennlinien von gelieferten Videosignalen umzusetzen.
  • Die Erfindung wird besser aus der folgenden ausführlichen Beschreibung verständlich, wenn diese in Verbindung mit den beiliegenden Zeichnungen gelesen wird, in denen:
  • 1 ein schematisches Diagramm ist, welches die Beziehung zwischen einem SD-Videosignal und einem HD-Videosignal erläutert;
  • 2 ein Blockdiagramm ist, welches ein herkömmliches zweidimensionales nichttrennbares Interpolationsfilter zeigt;
  • 3 ein Blockdiagramm ist, welches ein herkömmliches vertikales/horizontales trennbares Interpolationsfilter zeigt;
  • 4 ein Blockdiagramm ist, welches einen Aufwärtsumsetzer zeigt, der ein zweidimensionales nichttrennbares Filter gemäß der vorliegenden Erfindung umfasst;
  • 5 ein Blockdiagramm ist, welches den Aufbau einer Klassifikationseinheit zeigt, die in 4 gezeigt ist;
  • 6 ein Blockdiagramm ist, welches die Konfiguration einer Aktivitätsbestimmungseinheit zeigt, die in 5 gezeigt ist;
  • 7 schematisches Diagramm ist, welches ein beispielhaftes Positionieren von SD-Pixeln zeigt;
  • 8A, 8B und 8C schematische Diagramme sind, die ein Klassenanzapfmuster für die Klassifikationseinheit zeigen;
  • 9 ein schematisches Diagramm ist, welches die Vorhersageanzapfungen von Lerndaten zeigt;
  • 10 ein Flussdiagramm ist, welches eine Vorhersagekoeffizienten-Lernprozedur zeigt;
  • 11 ein schematisches Diagramm ist, um eine hierarchische Struktur bei einem Vorhersagekoeffizienten-ROM zu erläutern;
  • 12 ein Blockdiagramm ist, um eine Aktivitätsklassifikationseinheit bei einem Auswärtsumsetzer gemäß einer zweiten Ausführungsform zu erläutern;
  • 13 eine grafische Darstellung ist, die eine Frequenzverteilung auf der Basis des Pegels von einem ADRC-Codewert zeigt;
  • 14 ein Blockdiagramm ist, um einen Aufwärtsumsetzer gemäß einer sechsten Ausführungsform zu erläutern;
  • 15A, 15B, 15C, 15D und 15E schematische Diagramme sind, welche eindimensionale Laplace-Filter erläutern;
  • 16 eine Tabelle ist, welche Indizes für einen erststufigen Klassencode der Klassifikationseinheit erläutern;
  • 17A, 17B, 17C und 17D schematische Diagramme sind, welche Vorhersageanzapfungsmuster erläutern, welche eine Charakteristik in einer horizontalen Richtung haben, als Klassifikationsergebnis der Klassifikationseinheit;
  • 18A, 18B, 18C und 18D schematische Diagramm sind, welche Vorhersageanzapfungsmuster erläutern, welche eine Charakteristik in einer vertikalen Richtung haben, als Klassifizierungsergebnis der Klassifikationseinheit;
  • 19A, 19B, 19C, 19D, 20A, 20B, 20C und 20D schematische Diagramme sind, um Vorhersageanzapfungsmuster zu erläutern, welche eine Charakteristik in einer schrägen Richtung haben, als Klassifizierungsergebnis der Klassifikationseinheit;
  • 21 ein Blockdiagramm ist, um einen Aufwärtsumsetzer gemäß einer siebten Ausführungsform zu erläutern;
  • 22 ein Blockdiagramm ist, um eine Klassifikationseinheit gemäß einer achten Ausführungsform zu erläutern;
  • 23A, 23B, 23C und 23D schematische Diagramme sind, um Klassenanzapfungsmuster in Klassifikationseinheiten zu erläutern;
  • 24A, 24B und 24C schematische Diagramme sind, um Klassenanzapfungsmuster in Klassifikationseinheiten zu erläutern;
  • 25 ein Blockdiagramm ist, um einen Aufwärtsumsetzer gemäß einer neunten Ausführungsform zu erläutern;
  • 26 ein schematisches Diagramm ist, um Klassenerzeugungs-Blockdaten zu erläutern, welche zur Erzeugung eines Klassencodes in einer Klassifikationseinheit gemäß einer neunten Ausführungsform verwendet werden;
  • 27 ein schematisches Diagramm ist, um einen hierarchischen Aufbau eines Klassencodes gemäß einer neunten Ausführungsform zu erläutern;
  • 28 ein schematisches Diagramm ist, um Vorhersageanzapfungsmuster in einer Vorhersageberechnungseinheit gemäß einer neunten Ausführungsform zu erläutern;
  • 29 ein Blockdiagramm ist, welches einen Aufwärtsumsetzer auf der Basis eines vertikalen/horizontalen Trennbarfilters gemäß der vorliegenden Ausführungsform zeigt; und
  • 30 ein Blockdiagramm ist, welches einen Aufwärtsumsetzer zum Erzeugen von HD-Pixelsignalen auf der Basis von Vorhersagewerten gemäß der vorliegenden Erfindung zeigt.
  • (1) Erste Ausführungsform
  • 4 zeigt eine Gesamtansicht, bei der ein zweidimensionales nichttrennbares Filter verwendet wird, bei dem die adaptive Klassifikationsverarbeitung genutzt wird, um ein HD-Videosignal von einem SD-Videosignal zu erzeugen. Ein SD-Videosignal S1, welches über einen Eingangsanschluss IN einem Aufwärtsumsetzer 10 zugeführt wird, wird zu einer Klassifikationseinheit 12 in einem Block-Block-Schema geliefert, welcher aus einer vorher festgelegten Anzahl von Pixeln besteht, wobei ein angemerktes SD-Pixel die Mitte der Pixel ist, wonach das SD-Videosignal S1 zu einer Vorhersageberechnungsschaltung 13 geliefert wird. Die Klassifikationseinheit 12 erzeugt einen Klassencode d0 des angemerkten SD-Pixels auf der Basis der Kennlinien der SD-Pixel des SD-Videosignals S1 in der Nähe des angemerkten Pixels des gelieferten SD-Videosignals S1. Der Klassencode d0 wird als Adressdaten an einen Vorhersagekoeffizienten-ROM 14 ausgegeben, der als Speichereinrichtung dient.
  • Der Vorhersagekoeffizienten-ROM 14 speichert Vorhersagekoeffizienten, die vorher durch Lernen erhalten wurden und die dazu verwendet werden, um HD-Interpolationspixel durch Vorhersage, um ein hochauflösendes Videosignal von einem Videosignal niedriger Auflösung zu erzeugen, als Vorhersagedaten d1 entsprechend dem Klassencode d0 zu berechnen. Der Vorhersagekoeffizienten-ROM 14 liest die Vorhersagedaten d1 unter Verwendung des Klassencodes d0 als Adressdaten und liefert diese zu einer Vorhersageberechnungseinheit 13. Die Vorhersageberechnungseinheit 13 führt eine vorher festgelegte Vorhersageberechnung bezüglich des SD-Videosignals S1 unter Verwendung der Vorhersagedaten d1 durch, um HD-Interpolationspixel vom SD-Videosignal S1 zu erzeugen. Das SD-Videosignal S1 wird über eine Verzögerungseinheit, welche nicht gezeigt ist, zur Vorhersageberechnungseinheit 13 geliefert. Eine Verzögerungszeit der Verzögerungseinheit entspricht der Zeit, um das Liefern der Vorhersagedaten d1 zur Vorhersageberechnungseinheit 13 zu beenden.
  • Die Vorhersageberechnungseinheit 13 besteht aus vier Vorhersagerechnern 13A bis 13D. Die entsprechenden Vorhersagerechner 13A bis 13D führen eine Produktsummenberechnung unter Verwendung der Vorhersagedaten d1 in bezug auf SD-Videosignals S1 durch. Dadurch erzeugen die Vorhersagerechner 13A bis 13D Vorhersagewerte d2, d3, d4, d5 für vier HD-Interpolationspixel entsprechend Pixeln bei vier unterschiedlichen Positionen Modus 1, Modus 2, Modus 3, Modus 4 auf einer Abtastzeile 1. Die entsprechenden HD-Interpolationspixel d2, d3, d4, d5, welche in den entsprechenden Vorhersagerechnern 13A bis 13D erzeugt wurden, werden zu einem Auswahlorgan 15 geliefert. Das Auswahlorgan 15 ordnet die entsprechenden Vorhersagewerte d2, d3, d4, d5 in zeit-serielle Daten um, wobei ein Pufferspeicher (nicht gezeigt) verwendet wird, welche dann von einem Ausgangsanschluss OUT als HD-Videosignal S2 ausgegeben werden.
  • 5 zeigt den Aufbau der Klassifikationseinheit 12, die in 4 gezeigt ist. Wie in 5 gezeigt ist, wird das SD-Videosignal S1, welches über einen Eingangsanschluss IN zugeführt wird, zu einer Aktivitätsklassifikationseinheit 21 geliefert. Dann wird in der Aktivitätsklassifikationseinheit 21 beispielsweise die räumliche Aktivität für jeden Block klassifiziert, der aus neun Pixeln von 3 × 3 besteht, wobei ein angemerktes Pixel in der Mitte ist, um die Charakteristik jedes Blocks auszuwerten und festzulegen. Die Aktivitätsklassifikationseinheit 21 erzeugt einen Klassencode c0 auf der Basis der Klassifikation und der Auswertung der räumlichen Aktivität, um dann den Klassencode c0 an ein Auswahlorgan 25 und an eine ADRC-Klassifikaktionseinheit (adaptive dynamic range coding) 26 auszugeben.
  • Zusätzlich wird das SD-Videosignal S1 parallel zu einem Weitbereich-Anzapfungsauswahlorgan 22, einem Standardanzapfungsauswahlorgan 23 und einem Schmalbereich-Anzapfungsauswahlorgan 24 geliefert, um drei unterschiedliche Arten von Pixelanzapfungsmuster festzulegen. Das Breitbereich-Anzapfungsauswahlorgan 22, das Standardanzapfungsauswahlorgan 23 und das Schmalbereich-Anzapfungsorgan 24 wählen entsprechend Anzapfungsmuster p0, p1 und p2 entsprechend der Raumklassen für das zugeführte SD-Videosignal S1 aus.
  • 6 zeigt den Aufbau der Aktivitätsklassifikationseinheit 21, die in 5 gezeigt ist. Wie in 6 gezeigt ist, wird das SD-Videosignal S1, welches vom Eingangsanschluss IN zugeführt wird, zunächst an eine Verarbeitungseinheit 30 ausgegeben. Dann ermittelt die Verarbeitungseinheit 30 einen dynamischen Bereich DR in mehreren SD-Pixeln, in denen das angemerkte SD-Pixel die Mitte des zugeführten SD-Signals ist. Der dynamische Bereich DR ist beispielsweise unter Verwendung eines Maximalwerts MAX und eines Minimalwerts MIN in einem Nachbarbereich, der aus neun Pixeln besteht, in welchem das angemerkte Pixel die Mitte (durch "
    Figure 00100001
    " gezeigt) ist, wie in 7 gezeigt ist, durch die folgende Gleichung (1) definiert: DR = MAX – MIN (1)
  • Der dynamische Bereich DR der mehreren SD-Pixel, in welchem das angemerkte SD-Pixel die Mitte bildet, wird an eine Schwellenwertbestimmungseinheit 31 ausgegeben. Der dynamische Bereich DR wird mit einem vorher festgelegten Schwellenwert in der Schwellenwertbestimmungseinheit 31 verglichen. Als Ergebnis gibt die Schwellenwertbestimmungseinheit 31 einen Klassencode c0 aus, der durch Vergleichen des dynamischen Bereichs mit dem Schwellenwert erzeugt wird. Kurz ausgedrückt wird die räumliche Aktivität durch Bestimmung der Größe des dynamischen Bereichs durch drei Größen (d. h., die räumliche Aktivität wird in bezug auf einen von drei Schritten von hoch, mittel und niedrig entschieden) durch die Schwellenwertverarbeitung in der Schwellenwertbestimmungseinheit 31. Dann wird das Bestimmungsergebnis als Klassencode c0, der durch zwei Bits gebildet wird, ausgegeben. Es wird allgemein angenommen, dass die räumliche Aktivität hoch ist, wenn der dynamische Bereich DR groß ist, und dass die räumliche Aktivität niedrig ist, wenn der dynamische Bereich DR klein ist. Auf diese Weise führt die Aktivitätsklassifikationseinheit 21 einen ersten Schritt einer Klassifikation auf der Basis des dynamischen Bereichs aus.
  • Anschließend wird ein Schritt einer Klassifikation des Weitbereichs-Anzapfungsauswahlorgans 22, des Standardanzapfungsauswahlorgans 23, des Schmalbereichs-Anzapfungsauswahlorgans 24 und der ADRC-Klassifikationseinheit 26 besonders beschrieben.
  • Zunächst betrachtet unter den obigen drei Arten von Klassenanzapfungs-Musterauswahlorganen das Standardanzapfungsauswahlorgan 23 die Standard-Intra-Raumvariationen des gelieferten SD-Videosignals S1 und wählt ein übliches Klassenanzapfungsmuster aus, wie in 8B gezeigt ist. Im Gegensatz dazu betrachtet das Weitbereich-Anzapfungsauswahlorgan 22 die regulären Intra-Raum-Variationen des gelieferten SD-Videosignals S1. Das heißt, das Weitbereich-Anzapfungsauswahlorgan 22 wählt ein Klassenanzapfungsmuster für einen weiten Bereich aus, wie in 8A gezeigt ist. Weiter betrachtet das Schmalbereich-Anzapfungsauswahlorgan 24 die unregelmäßigen Intra-Raum-Variationen des zugeführten SD-Videosignals S1 und wählt ein Klassenanzapfungsmuster für einen schmalen Bereich, wie in 8C gezeigt ist, für die unregelmäßigen Signalvariationen aus.
  • Das Weitbereich-Anzapfungsauswahlorgan 22, das Standard-Anzapfungsauswahlorgan 23 und das Schmalbereich-Anzapfungsauswahlorgan 24 liefern entsprechend Klassenanzapfungsmuster p0, p1 und p2, die entsprechend dadurch ausgewählt werden, zum Auswahlorgan 25. Das Auswahlorgan 25 wählt eines der Klassenanzapfungsmuster p0, p1 und p2 als Antwort auf einen Klassencode c0, der von der Aktivitätsklassifikationseinheit 21 zugeführt wird, als Auswahlsteuersignal aus, und liefert das ausgewählte Klassenanzapfungsmuster als Klassenanzapfungsmuster p3 zur ADRC-Klassifikationseinheit 26. Das heißt, das Auswahlorgan 25 wählt das Klassenanzapfungsmuster p0 von dem Weitbereich-Anzapfungsauswahlorgan 22 aus, wenn der Klassencode c0 zeigt, dass die räumliche Aktivität niedrig ist, das Auswahlorgan 25 wählt im Gegensatz dazu das Klassenanzapfungsmuster p2 vom Schmalbereich-Anzapfungsauswahlorgan 24 aus, wenn der Klassencode c0 zeigt, dass die räumliche Aktivität hoch ist.
  • Die ADRC-Klassifikationseinheit 26 legt die Anzahl der Requantisierungsbits "k'" als Antwort auf den Klassencode c0, der als Steuersignal verwendet wird, fest. Der Klassencode c0 wurde gemäß dem dynamischen Bereich DR des gelieferten SD-Videosignals S1 erzeugt. Auf diese Weise kann die Pegelauflösungsfähigkeit für jede Anzapfung im Anzapfungsmuster p3, welches für eine Raumklasse ausgewählt wurde, in Abhängigkeit vom dynamischen Bereich DR des SD-Videosignals S1 verschieden eingestellt werden.
  • Die ADRC-Einheit requanitisiert Pixel mit einer Quantisierungsschrittgröße, welche als Requantisierung definiert wird. Ein ADRC-Code c1 ("ci" wird in der folgenden Gleichung gemäß der Anzahl von SD-Pixeln "i" im Klassenanzapfungsmuster verwendet) wird unter Verwendung des dynamischen Bereichs DR, der Anzahl von Requantisierungsbits "k", eines SD-Pixels xi und eines Minimalpixelpegels MIN in dessen Nachbarbereich durch die folgende Gleichung dargestellt:
  • Figure 00120001
  • Die Änderung der Pegelauflösungsfähigkeit für ein Anzapfungsmuster einer Raumklasse wird durch Ändern der Anzahl von Requantisierungsbits "k" bei der ADRC-Berechnung ausgeführt, die durch die Gleichung (2) dargestellt wird, gemäß dem Klassencode c0. Auf diese Weise kann die Pegelauflösungsfähigkeit adaptiv geändert werden und gemäß dem dynamischen Bereich DR eines zugeführten Signals eingestellt werden. Das heißt, je größer der dynamische Bereich DR wird, desto mehr legt die ADRC-Klassifikationseinheit 26 die Pegelauflösungsfähigkeit im Detail fest.
  • Die Klassifikationseinheit 12 erzeugt somit einen Klassencode d0, der aus dem Klassencode c0 und einen ARDC-Code c1 besteht. Der Klassencode d0 wird zum Vorhersagekoeffizienten-ROM 14 in einer nachfolgenden Stufe als Adressdaten geliefert.
  • Der Vorhersagekoeffizient-ROM 14 liest den Klassencode d0, der aus einer Kombination des Klassencodes c0 und des ADRC-Codes c1 zusammengesetzt ist, als Adressdaten und liefert die Vorhersagedaten d1, die dazu verwendet werden, die HD-Interpolationspixel zu erzeugen, zur Vorhersageberechnungseinheit 13. Die entsprechenden Vorhersagerechner 13A bis 13D führen eine Vorhersageberechnung unter Verwendung von SD-Pixeln xi, die das SD-Videosignal S1 umfassen, und der Vorhersagekoeffizienten wi aus, die die Vorhersagedaten d1 umfassen, für jede Klasse, um Vorhersagepixel y' für die HD-Interpolationspixel entsprechend der Positionen Modus 1 bis Modus 4 auf der Abtastzeile 1 zu erzeugen.
  • Die SD-Pixel xi, welche in diesem Fall verwendet werden, sind beispielsweise aus dreizehn Vorhersageanzapfungsdaten gebildet, die aus einem angemerkten Pixel (angedeutet durch "
    Figure 00120002
    ") und Umgebungspixel (angedeutet durch "O") bestehen, die positioniert sind, wie in 9 gezeigt ist. Daher umfassen in diesem Fall die Vorhersagekoeffizienten widreizehn Vorhersagekoeffizienten für die entsprechenden Vorhersageberechnungseinheiten. Außerdem sind die SD-Pixel, welche in den entsprechenden Vorhersageberechnungseinheiten 13A bis 13D verwendet werden, einander identisch, jedoch sind die Vorhersagekoeffizienten wi vom Vorhersagekoeffizienten-ROM 14 in den entsprechenden Vorhersageberechnungseinheiten 13A bis 13D verschieden, so dass der Vorhersagekoeffizienten-ROM 14 vier Gruppen der Vorhersagekoeffizienten speichert, welche dreizehn Vorhersagekoeffizienten umfassen, die einer Klasse entsprechen.
  • Die Vorhersagepixel y' für die HD-Interpolationspixel werden unter Verwendung der vorhergehenden dreizehn SD-Pixel xiund der Vorhersagekoeffizienten widurch die folgende Gleichung (3) transformiert und erzeugt:
  • Figure 00130001
  • Die entsprechenden Vorhersageberechnungseinheiten 13A bis 13D führen die Vorhersageberechnung durch die Gleichung (3) unter Verwendung der SD-Pixel und der Vorhersagekoeffizienten, die entsprechend geliefert werden, durch, und erzeugen die HD-Interpolationspixel.
  • Die Vorhersagekoeffizienten wi, die hier verwendet werden, wurden vorher durch Lernen erzeugt und im Vorhersagekoeffizienten-ROM 14 gespeichert.
  • Anschließend wird eine Lernprozedur zum Erzeugen von Vorhersagekoeffizienten für jede Klasse, die im Vorhersagekoeffizienten-ROM 14 gespeichert sind, mit Hilfe eines Flussdiagramms beschrieben, welches in 10 gezeigt ist.
  • Die Vorhersagekoeffizienten werden gemäß einer Vorhersagekoeffizienten-Lernprozedur, die in 10 gezeigt ist, erzeugt. Nach dem Starten der Vorhersagekoeffizienten-Lernprozedur im Schritt SP1 werden die Lerndaten entsprechend vorher bekannten Bildern zunächst im Schritt SP2 erzeugt, um Vorhersagekoeffizienten wi zu lernen.
  • Insbesondere wird in dem HD-Bild, welches in 1 gezeigt ist, ein HD-Interpolationspixel als angemerktes HD-Pixel bestimmt, und dieses angemerkte HD-Pixel wird durch ein lineares Primärkombinationsmodell unter Verwendung von Vorhersagekoeffizienten durch einen Satz von Lerndaten ausgedrückt, die umgebende HD-Interpolationspixel und SD-Pixel umfassen. Die Vorhersagekoeffizienten, welche in diesem Fall verwendet werden, werden unter Verwendung von zumindest Quadrierungsverfahren für jede Klasse berechnet. Zusätzlich können beim Erzeugen von Lerndaten, wie oben beschrieben, wenn mehrere Bilder verwendet werden, anstelle eines einzelnen Bildes, um eine Vielzahl von Lerndaten zu erzeugen, genauere Vorhersagekoeffizienten erzeugt werden.
  • Im Schritt SP3 wird bestimmt, ob eine ausreichende Anzahl von Lerndaten im Schritt SP2 zum Erhalten der Vorhersagekoeffizienten erzeugt wurde oder nicht. Wenn bestimmt wird, dass die Anzahl von erzeugten Lerndaten kleiner ist als eine erforderliche Anzahl, läuft die Vorhersagekoeffizienten-Lernprozedur weiter zum Schritt SP4.
  • Im Schritt SP4 werden Klassenlerndaten klassifiziert. Die Klassifikation wird in einer Weise durchgeführt, dass zunächst eine lokale Flachheit ermittelt wird, um Abtastdaten zu lernen, und Pixel, welche für die Klassifikation verwendet werden, gemäß den Ermittlungsergebnissen ausgewählt werden. Auf diese Weise werden Pixel, welche kleine Änderungen des Eingangssignals zeigen, von den Daten, die zu lernen sind, beseitigt, so dass der Einfluss von Rauschen beseitigt werden kann. Die Klassifikation der Klassenlerndaten wird durch Ausführen der gleichen Verarbeitung wie durch die ausgeführt, die verwendet wird, um das gelieferte SD-Videosignal S1 zu klassifizieren.
  • Insbesondere beginnt die Klassifikation der Klassenlerndaten mit der Klassifikation und der Auswertung des dynamischen Bereichs DR der Lerndaten, um einen Klassencode c0 zu setzen. Nachfolgend wird ein Anzapfungsmuster p3 aus drei Arten von Anzapfungsmustern eines weiten Bereichs, eines Standardbereichs und eines schmalen Bereichs auf der Basis des Klassencodes c0 als Raumklasse ausgewählt. Dann wird, wie in 11 gezeigt ist, der so erzeugte Klassencode c0 mit einem ARDC-Code c1 kombiniert, um einen Klassencode d0 zu setzen, und dieser Klassencode d0 wird im ROM gemäß den Vorhersagedaten d1 gespeichert.
  • Danach bildet die Vorhersagekoeffizienten-Lernprozedur im Schritt SP5 eine Normierungsgleichung für jede Klasse auf der Basis der klassifizierten Lerndaten.
  • Die Verarbeitung im Schritt SP5 wird besonders erläutert. Aus Gründen einer Generalisierung jedoch wird unten ein Fall beschrieben, wo "n" Abtastpixel als Lerndaten existieren. Zunächst wird die Beziehung zwischen Pixelpegeln x1, ... xn von entsprechenden Abtastpixeln und eines Pixelpegels "y" vor einer Hilfsabtastung eines angemerkten Interpolationspixels für jede Klasse durch eine Vorhersagegleichung ausgedrückt, die durch ein lineares Primärkombinationsmodell dargestellt wird, wobei "n"-Anzapfungen von Vorhersagekoeffizienten w1, ... wn verwendet werden. Die Vorhersagegleichung wird durch die folgende Gleichung (4) angegeben:
  • Figure 00150001
  • Die Vorhersagekoeffizienten w1, ... wn in der Gleichung (4) werden berechnet, um den Pixelpegel "y" vorherzusagen.
  • Anschließend wird ein Beispiel angegeben, um zu zeigen, wie die Vorhersagekoeffizienten w1, ... wn durch eine Fehlerquadratmethode erzeugt werden. Die Fehlerquadratmethode wird wie folgt angewandt.
  • Als generalisiertes Beispiel wird die folgende Beobachtungsgleichung (5) betrachtet, wo X einen Satz von Eingangsdaten darstellt, "w" einen Satz von Vorhersagekoeffizienten und "Y" einen Satz von Vorhersagewerten.
  • Figure 00150002
  • Die Fehlerquadratmethode wird bei Daten angewandt, die durch die Beobachtungsgleichung, die durch die Gleichung (5) angegeben wird, gesammelt werden. In dem Beispiel, welches durch die Gleichung (5) angegeben wird, ist "n" gleich "13", und "m" stellt die Anzahl von Lerndaten dar.
  • Zunächst wird auf der Basis der Beobachtungsgleichung der Gleichung (5) die folgende Restgleichung (6) betrachtet:
  • Figure 00150003
  • Aus der Restgleichung, die durch die Gleichung (6) angegeben wird, kann der Schluss gezogen werden, dass der am meisten wahrscheinliche Wert von jedem wi hergeleitet wird, wenn ein Zustand zum Minimieren der Lösung der folgenden Gleichung (7) erfüllt ist:
  • Figure 00160001
  • Insbesondere, wenn eine Teildifferentialgleichung durch wi der Gleichung (7) durch die folgende Gleichung (8) ausgedrückt wird:
    Figure 00160002
    werden Bedingungen in bezug auf die Anzahl "n" auf der Basis von "i" in der Gleichung (8) betrachtet, und es können w1, w2, ... wn, die diese Bedingungen erfüllen, berechnet werden. Die folgende Gleichung (9) wird aus der Restgleichung (6) hergeleitet:
  • Figure 00160003
  • Aus der Gleichung (9) und der Gleichung (8) wird die folgende Gleichung (10) hergeleitet:
  • Figure 00160004
  • Danach wird aus der Gleichung (6) und der Gleichung (10) die folgende Normierungsgleichung (11) hergeleitet:
  • Figure 00170001
  • Da die Anzahl von Normierungsgleichungen, welche durch die Gleichung (11) angegeben wird, gleich der Anzahl "n" von Unbekannten ist, kann der am meisten wahrscheinliche Wert von jedem wiaus diesen Normierungsgleichungen berechnet werden.
  • Die Normierungsgleichungen können unter Verwendung eines Aussuchverfahrens (Gauss-Jordan'sches Eliminationsverfahren) gelöst werden.
  • Die Vorhersagekoeffizienten-Lernprozedur wiederholt eine Schleife aus den Schritten SP2-SP3-SP4-SP5-SP2, bis die gleiche Anzahl der Normierungsgleichungen wie die Anzahl "n" von Unbekannten gebildet sind, um unbestimmte Koeffizienten w1, ... wn für jede Klasse zu berechnen.
  • Wenn die erforderliche Anzahl von Normierungsgleichungen damit gebildet ist, wird ein Zustimmungsergebnis für eine Bestimmung im Schritt SP3 hergeleitet, ob das Lernen von Daten beendet ist oder nicht, worauf die Prozedurverarbeitung folgt, um Vorhersagekoeffizienten im Schritt SP6 zu bestimmen.
  • Im Schritt SP6 werden die Normierungsgleichungen, welche durch die Gleichung (11) angegeben sind, gelöst, um die Vorhersagekoeffizienten w1, ... wn für jede Klasse zu bestimmen. Die somit bestimmten Vorhersagekoeffizienten werden im nächsten Schritt SP7 in einer Speichereinrichtung, beispielsweise einem ROM gespeichert, dessen Speicherbereich für jede Klasse unterteilt ist. In diesem Fall werden vier Gruppen der Vorhersagekoeffizienten, die die Vorhersagekoeffizienten w1, ... wn umfassen, die den Vorhersagerechnern 13A bis 13D entsprechen, in bezug auf einen Klassencode gespeichert. Durch die vorhergehende Lernprozedur werden die Vorhersagekoeffizienten für die Klassifikationsvorhersageverarbeitung erzeugt, auf die die Beendigung der Vorhersagekoeffizienten-Lernprozedur im nächsten Schritt SP8 folgt.
  • Anschließend wird die Arbeitsweise des oben erwähnten Aufwärtsumsetzers 10 der ersten Ausführungsform und jede Einheit des Aufwärtsumsetzers beschrieben. Ein SD-Videosignal S1, welches dem Aufwärtsumsetzer 10 über den Eingangsanschluss IN zugeführt wird, wird zunächst parallel zur Klassifikationseinheit 12 und zur Vorhersagekoeffizienten-Berechnungseinheit 13 geliefert. Die Klassifikationseinheit 12 erzeugt einen Klassencode d0 auf der Basis des SD-Videosignals S1 und liefert den erzeugten Klassencode d0 zum Vorhersagekoeffizienten-ROM 14. Der Vorhersagekoeffizienten-ROM 14 liest Vorhersagedaten d1, die vorher durch Lernen erhalten wurden, gemäß dem Klassencode d0 und liefert diese zur Vorhersagekoeffizienten-Berechnungseinheit 13. Die Vorhersagekoeffizienten-Berechnungseinheit 13 erzeugt HD-Interpolationspixel auf der Basis von vier Positionen (Modus 1 bis Modus 4) auf einer Abtastzeile 1 auf der Basis des SD-Videosignals S1, welches vom Eingangsanschluss IN zugeführt wird, und der Vorhersagedaten d1, welche vom Vorhersagekoeffizienten-ROM 14 in den entsprechenden Vorhersagerechnern 13A bis 13D geliefert werden.
  • In der Klassifikationseinheit 12 ermittelt die Aktivitätsklassifikationseinheit 21 zunächst einen dynamischen Bereich DR der mehreren SD-Pixel, in welchen das angemerkte SD-Pixel des zugeführten SD-Videosignals S1 die Mitte bildet, und vergleicht den dynamischen Bereich DR mit einem vorher festgelegten Schwellenwert, um einen Klassencode c0 auszugeben. Allgemein ist die räumliche Aktivität hoch, wenn der dynamische Bereich groß ist, und umgekehrt ist die räumliche Aktivität niedrig, wenn der dynamische Bereich klein ist.
  • Das zugeführte SD-Videosignal S1 in Blockeinheiten wird parallel zu einem Anzapfungsauswahlorgan 22 für einen weiten Bereich, zu einem Anzapfungsauswahlorgan 23 für einen Standardbereich und zu einem Anzapfungsauswahlorgan 24 für einen engen Bereich geliefert, um drei unterschiedliche Pixelanzapfungsmuster festzulegen. Das Auswahlorgan 22 für den weiten Bereich, das Auswahlorgan für die Standardanzapfung und das Anzapfungsauswahlorgan 24 für den schmalen Bereich wird auf Anzapfungsmuster p0, p1 und p2 für die entsprechenden Raumklassen festgesetzt.
  • Das Auswahlorgan 25 wählt auf der Basis des Klassencodes c0 ein Klassenanzapfungsmuster p0, welches eine Signaländerung über einen relativ weiten Bereich hat, wie in 8A gezeigt ist, für ein SD-Videosignal S1 aus, welches einen kleinen dynamischen Bereich DR und eine niedrige Aktivität hat, um eine langsame Signaländerung gegenüber der Klasse zu reflektieren. Dagegen wählt das Auswahlorgan 25 ein Klassenanzapfungsmuster p2, welches eine Signaländerung über einen schmalen Bereich hat, wie in 8C gezeigt ist, für ein SD-Videosignal S1 aus, welches einen großen dynamischen Bereich DR und eine hohe Aktivität hat, um eine Signaländerung in einem schmalen Bereich mit einer größtmöglichen Anzahl von Klassen auszudrücken. Auf diese Weise wählt in Abhängigkeit von der Signalcharakteristik im Hinblick auf den dynamischen Bereich DR das Auswahlorgan 25 eine Raumklasse, welche durch ein Anzapfungsmuster p3 dargestellt wird, welches eine Signaländerung eines damit in Verbindung stehenden SD-Videosignals S1 reflektiert, aus und liefert dieses zur ADRC-Klassifikationseinheit 26 in der nächsten Stufe.
  • Die ADRC-Klassifikationseinheit 26 setzt unter Verwendung des Klassencodes c0 als Steuersignal einen kleinen Wert auf die Anzahl von Requantisierungsbits "k" jeder Anzapfung für die Raumklassifikation für ein SD-Videosignal S1, welches einen kleinen dynamischen Bereich DR hat. Dies hat die Reduzierung der Pegelauflösungsfähigkeit jeder Anzapfung zur Folge, wodurch somit ein ADRC-Code c1 aufgrund der Annahme ausgegeben wird, dass das SD-Videosignal S1 stabil ist. Dagegen setzt die ADRC-Klassifikationseinheit 26 einen größeren Wert auf die Anzahl von Requantisierungsbits "k" jeder Anzapfung für die Raumklassifikation für ein SD-Videosignal S1, welches einen großen dynamischen Bereich DR hat, um einen ADRC-Code c1 mit einer höheren Pegelauflösungsfähigkeit auszugeben. Auf diese Weise kann eine instabile Signaländerung des SD-Videosignals S1, welches einen großen dynamischen Bereich DR und eine hohe Aktivität hat, auf die Klasse reflektiert werden.
  • Wie oben beschrieben ändert die Klassifikationseinheit 12 ein Anzapfungsmuster von Pixeln, welche zur Klassifikation gemäß dem dynamischen Bereich des gelieferten SD-Videosignals S1 verwendet werden, und außerdem ändert sie die Anzahl von Requantisierungsbits "k" jeder Anzapfung für die Klassifikation, um die Pegelauflösungsfähigkeit adaptiv festzulegen. Dies kann eine geeignete Klassifikation gemäß der Charakteristik des dynamischen Bereichs des zugeführten SD-Videosignals S1 bereitstellen.
  • Die Klassifikationseinheit 12 kombiniert den Klassencode c0 mit dem ADRC-Code c1, um einen Klassencode d0 zu erzeugen, der zum Vorhersagekoeffizienten-ROM 14 in der nächsten Stufe geliefert wird. Im Vorhersagekoeffizienten-ROM 14 werden Vorhersagedaten d1 auf der Basis des Klassencodes d0 gelesen und zur Vorhersageberechnungseinheit 13 geliefert. Die Vorhersageberechnungseinheit 13 erzeugt HD-Interpolationspixel durch Transformation von SD-Pixeln in HD-Interpolationspixel unter Verwendung der Vorhersagedaten d1. Die HD-Interpolationspixel werden zum Auswahlorgan geliefert und zeit-seriell im Auswahlorgan 15 umgeordnet und als HD-Videosignal ausgegeben. Somit reflektieren die ausgewählten Vorhersagedaten d1 die Charakteristik des zugeführten SD-Videosignals S1 hinsichtlich des dynamischen Bereichs DR, wodurch es ermöglicht wird, die Genauigkeit von HD-Interpolationspixeln, die durch Transformation von SD-Pixeln erzeugt werden, und die räumliche Auflösungsfähigkeit eines HD-Videosignals S2 zu verbessern.
  • Gemäß der obigen Ausführungsform unterliegt ein SD-Videosignal S1, welches dem Aufwärtsumsetzer 10 zugeführt wird, einer Bestimmung in der Aktivitätsklassifikationseinheit 21, um zu bestimmen, ob dessen dynamischer Bereich DR größer oder kleiner als ein Schwellenwert ist. Dann kann ein Anzapfungsmuster, welches für die Charakteristik des SD-Videosignals S1 hinsichtlich des dynamischen Bereichs DER geeignet ist, von Anzapfungsmustern für drei Arten von Raumklassen (ein Anzapfungsmuster eines weiten Bereichs, ein Anzapfungsmuster für einen Standardbereich und ein Anzapfungsmuster für einen schmalen Bereich) auf der Basis eines Klassencodes d0, der als Ergebnis der Bestimmung erzeugt wird, festgelegt werden. Es ist daher möglich, ein Anzapfungsmuster festzulegen, welches die Charakteristik des zugeführten SD-Videosignals S1 hinsichtlich des dynamischen Bereichs DR reflektiert.
  • Gemäß der obigen Ausführungsform wird außerdem die Anzahl von Requantisierungsbits "k" jeder Anzapfung für die Raumklassifikation gemäß dem Klassencode c1 geändert, um die Pegelauflösungsfähigkeit jeder Anzapfung zu ändern, um dadurch zu ermöglichen, um stabile und instabile Signaländerungen gegenüber der Klassifikation unter Verwendung der Pegelauflösungsfähigkeit der Anzapfung zu reflektieren. Auf diese Weise wird das zugeführte SD-Videosignal S1 passend mit einem Anzapfungsmuster und einer Pegelauflösungsfähigkeit der Anzapfung klassifiziert, die gemäß dem dynamischen Bereich DER des gelieferten SD-Videosignals S1 festgelegt wird, wodurch es möglich wird, ein HD-Videosignal S2 zu erzeugen, welches eine hohe räumliche Auflösung hat, welches die Signalcharakteristik des gelieferten SD-Videosignals S1 reflektiert.
  • (2) Zweite Ausführungsform
  • 12 zeigt eine Aktivitätsklassifikationseinheit 35 des Aufwärtsumsetzers gemäß einer zweiten Ausführungsform. Die Aktivitätsklassifikationseinheit 35 wertet eine Intra-Raum-Aktivität eines SD-Videosignals S1 aus, welches mehrere SD-Pixel umfasst, bei denen ein angemerktes Pixel die Mitte bildet, die in Blockeinheiten zugeführt werden, und klassifiziert das angemerkte Pixel gemäß von dessen Charakteristik.
  • Das SD-Signal S1, welches von einem Eingangsanschluss IN zugeführt wird, wird zur ADRC-Klassifikationseinheit 36 geliefert, welche eine Klassifikation auf der Basis des ADRC für das SD-Videosignal S1 ausführt, welches mehrere SD-Pixel aufweist, in denen das angemerkte Pixel die Mitte bildet.
  • Ein ADRC-Code "c" (es sei angemerkt, dass ci für den ADRC-Code c in der Gleichung (12) verwendet wird, um dieses in Übereinstimmung zur Anzahl i von SD-Pixeln in einem Klassenanzapfungsmuster in Übereinstimmung zu bringen), der von der ADRC-Klassifikationseinheit 36 ausgegeben wird, wird von einem dynamischen Bereich DR, einer Anzahl von Requantisierungsbits "k", einem SD-Pixel xi und einem Minimalpixelpegel MIN innerhalb eines Nachbarbereichs des SD-Pixels erzeugt, wie durch die folgende Gleichung (12) zum Ausdruck kommt:
    Figure 00220001
    was ähnlich der ersten Ausführungsform ist.
  • Der ADRC-Code "c", der in der ADRC-Klassifikationseinheit 36 erzeugt wird, wird zu einer Nachverarbeitungseinheit 37 in der nächsten Stufe geliefert. Die Nachverarbeitungseinheit 37 zeigt einen Variationsgrad eines Pegelverteilungsmusters, der beispielsweise durch den ADRC-Code "c" gezeigt wird, wobei eine Standardabweichung σ für den ADRC-Code "c" berechnet wird. Die Nachverarbeitungseinheit 37 liefert die berechnete Standardabweichung σ für den ADRC-Code "c" zu einer Schwellenwertbestimmungseinheit 38 in der nächsten Stufe. Die Schwellenwertbestimmungseinheit 38 erzeugt einen Klassencode c0 durch Vergleichen der Standabweichung σ für den ADRC-Code "c" mit einem Schwellenwert zur Bestimmung und gibt diesen aus. Die Standardabweichung σ für den ADRC-Code "c" wird durch die folgende Gleichung (13) ausgedrückt, bei der der ADRC-Code "ci", ein Durchschnittswert "ca" des ADRC-Codes "ci" und eine Anzahl des ADRC-Codes "n" verwendet werden:
  • Figure 00220002
  • Das Auswahlorgan 25, welches in 5 gezeigt ist, verwendet den somit erzeugten Klassencode c0, um ein Anzapfungsmuster p3 für eine Raumklasse ähnlich wie bei der ersten Ausführungsform auszuwählen. Die ADRC-Klassifikationseinheit 26 setzt außerdem adaptiv eine Pegelauflösung jeder Anzapfung auf der Basis des Klassencodes c0. Auf diese Weise werden das Anzapfungsmuster und die Pegelauflösung für die Raumklasse auf der Basis des Klassifikationsergebnisses der Raumaktivität des gelieferten SD-Videosignals S1 gesetzt, wodurch somit ähnliche Wirkungen wie bei der ersten Ausführungsform erzeugt werden.
  • (3) Dritte Ausführungsform
  • Als dritte Ausführungsform kann zur Klassifikation die Standardabweichung σ beispielsweise im Hinblick auf eine Datenverteilung von neun Pixeln rundum ein angemerktes Pixel eines gelieferten SD-Videosignals S1, welches in 7 gezeigt ist, berechnet werden, und ein Klassencode c0 kann durch eine Schwellenwertbestimmung für die berechnete Standardabweichung σ erzeugt werden.
  • Anders ausgedrückt wird im Prozessor 35 der Aktivitätsklassifikationseinheit 21, die in 6 gezeigt ist, die Standardabweichung σ im Hinblick auf die Datenverteilung von neun Pixeln rundum das zugeführte angemerkte Pixel berechnet.
  • Kurz ausgedrückt wird im Prozessor 35 das SD-Signal S1, welches vom Eingangsanschluss IN zugeführt wird, geliefert, die Standardabweichung σ wird im Hinblick auf die Datenverteilung von neun Pixeln rundum das zugeführte angemerkte Pixel berechnet. Der Prozessor 30 liefert die berechnete Standardabweichung σ zur Schwellenwertbestimmungseinheit 31 in der nächsten Stufe. Die Schwellenwertbestimmungseinheit 38 erzeugt und gibt einen Klassencode c0 durch eine Schwellenwertbestimmung der Standardabweichung σ aus. Die Standardabweichung σ wird durch die folgende Gleichung (14) unter Verwendung der SD-Pixel xi, eines Durchschnittswerts xa in einem Nachbarbereich und einer Anzahl von Pixeln "n" im Nachbarbereich ausgedrückt:
  • Figure 00230001
  • Auf diese Weise wird bei der dritten Ausführungsform die Klassifikation durch eine Schwellenwertbestimmung unter Verwendung dieser Standardabweichung σ ausgeführt. Im Allgemeinen ist die räumliche Aktivität hoch, wenn die Standardabweichung groß ist, und umgekehrt ist die räumliche Aktivität niedrig, wenn die Standardabweichung klein ist. Daher können durch Ändern eines Raumklassen-Anzapfungsmusters und der Pegelauflösungsfähigkeit einer Anzapfung für die Raumklassifikation auf der Basis der Schwellenwertbestimmung der Standardabweichung σ die gleichen Wirkungen wie bei den obigen Ausführungsformen erzielt werden.
  • (4) Vierte Ausführungsform
  • Wie bei der obigen Ausführungsform kann eine Frequenzverteilungstabelle, die die Werte des ADRC-Codes "c" registriert, welche durch einen Variationsgrad eines Pegelverteilungsmusters dargestellt werden, die durch den ADRC-Code "c" gezeigt werden, erzeugt werden, und dann können Klassencodedaten c0 durch eine Schwellenwertbestimmung unter Verwendung der erzeugten Frequenzverteilungstabelle erzeugt werden.
  • Insbesondere wird in einer Frequenzverteilungstabelle, wie in 13 gezeigt ist, die Anzahl von ADRC-Codes "c", welche zwischen dem Schwellenwert "0" und dem Schwellenwert "1" existieren, gezählt, und es wird das Verhältnis von Pixeln, welche in diesem Bereich existieren, in bezug auf Pixel, die außerhalb dieses Bereichs existieren, zur Klassifikation bestimmt. Wenn in diesem Fall die ADRC-Codes "c" konzentriert sind, beispielsweise in einem bestimmten Bereich, kann bestimmt werden, dass die räumliche Aktivität des SD-Videosignals niedrig ist. Wenn dagegen die ADRC-Codes c weit gestreut sind, kann bestimmt werden, dass die räumliche Aktivität hoch ist.
  • Anders ausgedrückt wird in einer ADRC-Klassifikationseinheit 36 das SD-Signal S1, welches vom Eingangsanschluss IN zugeführt wird, geliefert und die mehreren SD-Pixel, in welchen das bezeichnete Pixel die Mitte bildet, werden auf der Basis des ADRC ausgefertigt.
  • Der ADRC-Code "c", der in der ADRC-Klassifikationseinheit 36 erzeugt wird, wird an die Nachverarbeitungsschaltung 37 in der nächsten Stufe ausgegeben. Die Nachverarbeitungseinheit 37 erzeugt eine Frequenzverteilungstabelle, die einen ADRC-Code "c" registrierte, wie in 13 gezeigt ist, die einen Variationsgrad eines Pegelverteilungsmusters auf der Basis des ADRC-Codes "c" darstellt. Danach gibt die Nachverarbeitungseinheit 37 Daten, die eine Frequenzverteilungstabelle darstellt, für den erzeugten ADRC-Code "c" an die Schwellenwertbestimmungseinheit 38 in der nächsten Stufe aus. Die Schwellenwertbestimmungseinheit 38 zählt die Anzahl des ADRC-Codes, die zwischen dem Schwellenwert "0" und dem Schwellenwert "1" in einer Frequenzverteilungstabelle existieren, wodurch sie eine Schwellenwertbestimmung ausführt und einen Klassencode c0 erzeugt und ausgibt.
  • Daher werden ein Raumklassen-Anzapfungsmuster und eine Pegelauflösungsfähigkeit einer Anzapfung zur Raumklassifikation auf der Basis der Schwellenwertbestimmung unter Verwendung der Frequenzverteilungstabelle für diesen ADRC-Code "c" geändert, wodurch die gleichen Wirkungen wie bei den obigen Ausführungsformen erzielt werden.
  • (5) Fünfte Ausführungsform
  • Bei der fünften Ausführungsform werden außerdem Absolutwerte von Unterschieden von entsprechenden benachbarten SD-Pixelwerten in der Frequenzverteilungstabelle registriert, um so einen Klassencode "c0" zu erzeugen, wobei eine räumliche Aktivität unter Verwendung der Frequenzverteilungstabelle ausgewertet wird. In diesem Fall ist die räumliche Aktivität hoch, da eine große Anzahl von Pixeln große absolute Differenzwerte haben, und umgekehrt ist die räumliche Aktivität niedrig, da eine große Anzahl von Pixeln kleine absolute Differenzwerte haben.
  • Eine Differenz-Berechnungseinheit für benachbarte Pixel zum Berechnen von Absolutwerten von Differenzen entsprechender benachbarter Pixelwerte ist anstelle der ADRC-Klassifikationseinheit 36 in der Aktivitätsklassifikationseinheit 35, die in 12 gezeigt ist, angeordnet.
  • Kurz ausgedrückt wird in der Nachbar-Pixeldifferenz-Berechnungseinheit ein SD-Signal S1, welches vom Eingangsanschluss IN zugeführt wird, geliefert, und es wird die Differenz zwischen benachbarten Pixeln bezüglich benachbarter SD-Pixel berechnet, in denen das angemerkte Pixel die Mitte bildet, um einen Absolutwert der berechneten Differenz zu erzeugen. Der absolute Differenzwert, welcher in der Nachbar-Pixeldifferenz-Berechnungseinheit erzeugt wird, wird zur Nachverarbeitungseinheit 37 in der nächsten Stufe geliefert. Die Nachverarbeitungseinheit 37 erzeugt eine Frequenzverteilungstabelle, welche einen Variationsgrad des Pegelverteilungsmusters zeigt, auf der Basis des ADRC-Codes "c", in welcher ein absoluter Differenzwert registriert wurde. Danach werden in der Nachverarbeitungseinheit 37 Daten, die die Frequenzverteilungstabelle für den erzeugten absoluten Differenzwert zeigen, an eine Schwellenwertbestimmungseinheit 38 in der nächsten Stufe ausgegeben. Die Schwellenwertbestimmungseinheit 38 zählt die Anzahl von Pixeln, welche zwischen dem Schwellenwert "0" und dem Schwellenwert "1" in der Frequenzverteilungstabelle für den absoluten Differenzwert existieren, wodurch ein Klassencode c0 erzeugt wird und durch Ausführen einer Schwellenwertbestimmung ausgegeben wird.
  • Folglich werden ein Raumklassen-Anzapfungsmuster und eine Pegelauflösung einer Anzapfung für die Raumklassifikation auf der Basis einer Schwellenwertbestimmung der absoluten Differenzwerte der benachbarten Pixel geändert, wodurch die gleichen Wirkungen wie bei den obigen Ausführungsformen erzeugt werden.
  • (6) Sechste Ausführungsform
  • 14 zeigt einen Aufwärtsumsetzer 50 gemäß der sechsten Ausführungsform. Der Aufwärtsumsetzer 50 führt erste Dimensional-Laplace-Operationen in mehreren Richtungen in Laplace-Filtern 51A bis 51E einer ersten Klassifikationseinheit 50A und eine erststufige Klassifikation durch künstliches Entscheiden der Werte durch. Ein Klassenanzapfungsmuster einer zweiten Klassifikationseinheit 50B wird gemäß dem Klassifikationsergebnis der ersten Klassifikationseinheit 50A gesetzt. Dann führt die zweite Klassifikationseinheit 50B eine Klassifikation unter Verwendung des Klassenanzapfungsmusters durch.
  • Für die sechste Ausführungsform wird eine Aktivität einer zeitlichen Richtung bei der erststufigen Klassifikation ausgewertet. Die Struktur der sechsten Ausführungsform wird unter Verwendung von 14 beschrieben.
  • Ein SD-Videosignal S1, welches vom Eingangsanschluss IN zugeführt wird, wird zur Klassifikationseinheit 50A geliefert. Das SD-Videosignal S1, welches zur Klassifikationseinheit 50A geliefert wird, wird zu den Laplace-Filtern 51A bis 51E und zu einer Verzögerungsschaltung 56B geliefert. Die fünf unterschiedlichen Laplace-Filter 51A bis 51E führen Laplace-Operationen in unterschiedlichen Richtungen von jedem Filter bezüglich jedes Vollbilds oder jedes Teilbilds des gelieferten SD-Videosignals S1 durch, um Laplace-Werte L0 bis L4 auszugeben.
  • Insbesondere werden die Laplace-Operationen durch eindimensionale Laplace-Filter 51A bis 51E in der Horizontalrichtung (15A), in der Vertikalrichtung (15B), in einer sich nach rechts neigenden schrägen Richtung (der Richtung einer Diagonalen, die sich vom oberen linken Rand zum unteren rechten Rand auf der Ebene der Zeichnung erstreckt) (15C), in einer sich links neigenden schrägen Richtung (der Richtung einer Diagonalen, die sich vom oberen rechten Rand zum unteren linken Rand auf der Ebene der Zeichnung erstreckt) (15D), und einer zeitlichen Richtung (15E), wie in 15A bis 15E gezeigt ist.
  • Die Laplace-Werte L0 bis L3, die aus dem Laplace-Operationen resultieren, die durch die Laplace-Filter 51A bis 51D durchgeführt werden, werden zu Absolutwertschaltungen 52A bis 52D in der nächsten Stufe entsprechend geliefert. Die Absolutwertschaltungen 52A bis 52D berechnen Absolutwerte der entsprechenden Laplace-Werte L0 bis L3, die zugeführt werden. Die resultierenden Absolutwerte a0 bis a3 werden zu einem Maximalwertdetektor 53 geliefert. Der Maximalwertdetektor 53 ermittelt einen Maximalwert von den Absolutwerten a0 bis a3 und vergleicht den Maximalwert mit einem Schwellenwert TH0. Mit dieser Operation wird eine Flachheit des zugeführten SD-Videosignals S1 ermittelt, wobei ein Wert (Flachheitswerte) L10, der die Flachheit zeigt, die in einem Bit dargestellt wird, ausgegeben wird. Außerdem gibt der Maximalwertdetektor 53 einen Wert (Maximalwert, der den Richtungswert ermittelt) a10 aus, der eine Richtung zeigt, in der ein Maximalwert, der durch zwei Bits dargestellt wird, ermittelt wird. Simultan damit gibt das Laplace-Filter 51E einen Laplace-Wert L4 in der zeitlichen Richtung an eine Absolutwertschaltung 52E aus. Die Absolutwertschaltung 52E berechnet den Absolutwert des Laplace-Werts L4 und liefert den resultierenden Absolutwert a4 zu einem Komparator 54. Der Komparator 54 vergleicht den Absolutwert a4 mit einem Schwellenwert TH1, wodurch er einen Wert a11 ausgibt (zeitlicher Richtungsänderungswert), der eine Änderung in der zeitlichen Richtung, die durch ein Bit dargestellt wird, zeigt. Vierbitdaten, die eine Kombination des zeitlichen Richtungsänderungswerts a11, des oben erwähnten Maximalwerts a10 und des Flachheitswerts L10 sind, werden zur Klassifikationseinheit 50B in der nächsten Stufe als Steuerungssignal CT geliefert.
  • Da der Laplace-Wert grundsätzlich eine Gesamtzahl von räumlichen Unterschieden zwischen einem angemerkten Pixel und entsprechenden Pixeln auf beiden Seiten ist, ist der Laplace-Wert größer, da benachbarte Pixel große Änderungen zeigen. Die erste Klassifikationseinheit 50A führt eine eindimensionale Laplace-Filterung bezüglich der Aktivität in einer vorher festgelegten Richtung im Raum durch, um eine Richtung zu ermitteln, in welcher ein Rand in einem Raum existiert, und klassifiziert grob deren Charakteristik.
  • Das Steuerungssignal CT, welches von der Klassifikationseinheit 50A ausgegeben wird, wird zu Auswahlorganen 55A bis 55I und zu einer Verzögerungsschaltung 56A geliefert. Die Auswahlorgane 55A bis 55I sind mit einer Registermatrix 57 über Leitungen verbunden, zu denen SD-Daten, welche durch das Steuersignal CT ausgewählt werden, geliefert werden. Die Registermatrix 57 wird mit dem SD-Videosignal S1 der verzögerten mehreren Leitungsbereiche über die Verzögerungsschaltung 56B beliefert. Die Auswahlorgane 55A bis 55I werden selektiv als Antwort auf das Steuersignal CT umgeschaltet, und wählen SD-Bilddaten aus, welche von der Registermatrix 57 geliefert werden, gemäß entsprechenden Indizes, und liefern Pixeldaten für neun Pixel zu einer Einbit-ADRC-Klassifikationseinheit 58 in der nächsten Stufe. Kurz ausgedrückt wird das Klassenanzapfungsmuster der Klassifikationseinheit 50B in der nächsten Stufe gemäß dem Steuerungssignal CT ausgewählt.
  • Die ADRC-Klassifikationseinheit 58 nutzt ein Klassenanzapfungsmuster, welches aus neun Anzapfungen gebildet ist, die durch die Auswahlorgane 55A bis 55I ausgewählt werden, um eine Einbit-ADRC-Klassifikation auszuführen, um einen ADRC-Code "c", der durch neun Bits dargestellt wird, auszugeben. Als Ergebnis liefert die Klassifikationseinheit 50B 512 (29) Arten unterschiedlicher Klassen.
  • Folglich, da 16 Klassen, welche durch die erste Klassifikationseinheit 50A bereitgestellt werden, mit 512 Klassen multipliziert werden, die durch die zweite Klassifikationseinheit 50B bereitgestellt werden, kann ein Aufwärtsumsetzer 50 einen Einheitsblock des SD-Videosignals in 8192 Klassen klassifizieren. Durch derartiges Auswählen eines geeigneten Anzapfungsmusters durch die ADRC-Klassifikation im nächsten Schritt gemäß einer Klasse, welche im ersten Schritt auf der Basis der räumlichen Aktivität ausgewählt wurde, kann eine hoch genaue Klassifikation in der nächsten und nachfolgenden Stufen erzielt werden, was die räumliche Aktivität des SD-Videosignals reflektiert.
  • Eine Vorhersagewert-Berechnungseinheit 50C in der Stufe im Anschluss an die Klassifikationseinheit 50B besteht aus einem Vorhersagekoeffizienten-RAM 59, um Vorhersagekoeffizienten für HD-Interpolationspixel zu speichern, einer Vorhersageanzapfungs-Mustereinstelleinheit 60, um ein Vorhersageanzapfmuster zum Erzeugen von HD-Interpolationspixel einzustellen, und einer Vorhersageberechnungseinheit 61, um HD-Interpolationspixel zu erzeugen, wobei Berechnungen unter Verwendung des Vorhersageanzapfungsmusters und eines Vorhersagekoeffizienten ausgeführt werden.
  • Ein Vorhersagekoeffizient wird vom Vorhersagekoeffizienten-RAM 59 an einer Stelle gelesen, die durch Adressdaten angezeigt wird, wobei zwei Signale verwendet werden, die aus einem ADRC-Code "c" bestehen, der von der Einbit-ADRC-Klassifizierungseinheit 58 geliefert wird, und aus einem Steuersignal CT, welches durch die Verzögerungsschaltung 56B verzögert wird. Der gelesene Vorhersagekoeffizient wird zur Vorhersageberechnungseinheit 61 geliefert. Dagegen wird das SD-Videosignal S1, welches von der Registermatrix 57 ausgegeben wird, an die Vorhersageanzapfungs-Mustereinstelleinheit 60 ausgegeben. Die Vorhersageanzapfungs-Mustereinstelleinheit 60 stellt das Vorhersageanzapfungsmuster, welches für eine Vorhersageberechnungseinheit 61 verwendet wird, in der nächsten Stufe ein. Das heißt, von den zugeführten SD-Signaldaten S1 werden der Koeffizient, der vom Vorhersagekoeffizienten-RAM gelesen wird, und das Vorhersageanzapfungsmuster, welches durch die Vorhersageberechnung in der Vorhersageberechnungseinheit 61 ausgefertigt wird, in der nächsten Stufe ausgegeben. Die Vorhersageberechnungseinheit 61 verwendet Pixeldaten des Vorhersageanzapfungsmusters und den Vorhersagekoeffizienten, um HD-Interpolationspixel durch eine lineare Kombination erster Ordnung zu erzeugen und auszugeben.
  • Hier wird das Vierbit-Steuersignal CT, welches durch die Klassifikationseinheit 50A erzeugt wird, und ein Klassenanzapfungsmuster, welches durch das Steuersignal CT ausgewählt wird und in der Klassifikationseinheit 50B verwendet wird, beschrieben.
  • 16 zeigt eine Tabelle, welche Indizes "I0 bis I3" auflistet, die 16 (24) Wege unterschiedlicher Kombinationen des Vierbit-Steuersignals CT zeigen, welches durch die Klassifikationseinheit 50A erzeugt wird. 17A bis 17D, 18A bis 18D, 19A bis 19D und 20A bis 20D zeigen Beispiele von Anzapfungsmuster-Konfigurationen der Klassifizierungseinheit 50B in der nächsten Stufe, die entsprechend den Indizes "I0 bis I3" vorgesehen sind. Die Beziehung zwischen dem Steuersignal CT und dem Anzapfungsmuster ist eine Beziehung, bei der ein Klassenanzapfungsmuster in einer großen Änderungsrichtung (einer Richtung eines großen Laplace-Werts) in der räumlichen Richtung und einer Raumbreite der Anzapfung kleiner wird, wenn ein Maximum eines Laplace-Werts groß ist. Weiter ist die Beziehung so, dass ein Anzapfungsmuster aus einer Anzapfung auf dem gleichen Teilbild besteht, wenn der Laplace-Wert in der zeitlichen Richtung groß ist, und das Anzapfungsmuster aus einer Anzapfung aus einem verschiedenen Teilbild (beispielsweise einem Vollbild) vom Anzapfungsmuster gebildet wird, wenn der Laplace-Wert in der zeitlichen Richtung klein ist.
  • Anzapfungsmuster, welche in 17A bis 17D gezeigt sind, werden entsprechend den Indizes "0000" bis "0011" gesetzt und bezüglich einer großen Änderung in der Horizontalrichtung ausgewählt.
  • Wenn man die Klassenanzapfungsmuster, welche in 17A bis 17D gezeigt sind, vergleicht, kann man erkennen, dass die Anzapfungsmuster für die Indizes "0010", "0011", die in 17C und 17D gezeigt ist, Pixel haben, die in engeren Intervallen in der Horizontalrichtung als die Anzapfungsmuster für die Indizes "0000" und "0001", die in 17A und 17B gezeigt sind, beabstandet sind, wodurch der Laplace-Wert eines Maximalwerts in der Horizontalrichtung groß dargestellt wird. Das heißt, die räumliche Weite des Klassenanzapfungsmusters wird kleiner, wenn ein Laplace-Wert eines Maximalwerts in der Horizontalrichtung groß ist, und außerdem wird die räumliche Breite des Anzapfungsmusters größer, wenn der Laplace-Wert des Maximalwerts in der Horizontalrichtung klein ist. Wie außerdem in 17B und 17D gezeigt ist, ist, wenn ein Bit (viertes Bit) in der zeitlichen Richtung der Indizes "0001" und "0011" ein ist, das damit verknüpfte Klassenanzapfungsmuster im gleichem Teilbild positioniert, um eine große Änderung in der zeitlichen Richtung zu zeigen. Wenn dagegen, wie in 17A und 17C gezeigt ist, ein Bit (viertes Bit) in der zeitlichen Richtung der Indizes "0000" und "0010" aus ist, sind die Anzapfungen auf unterschiedlichen Teilbildern positioniert, um eine kleine Änderung in der zeitlichen Richtung zu zeigen.
  • Die Klassenanzapfungsmuster für die Indizes "0110" und "0111", die in 18C und 18D gezeigt sind, haben Pixel, welche in engeren Intervallen in der Vertikalrichtung beabstandet sind als die Klassenanzapfungsmuster für die Indizes "0100" und "0101", die in 18A und 18B gezeigt sind, wodurch der Laplace-Wert eines Maximalwerts in der Vertikalrichtung groß dargestellt ist. Das heißt, die räumliche Weite des Klassenanzapfungsmusters ist kleiner, wenn der Laplace-Wert eines Maximalwerts in der Vertikalrichtung groß ist, die räumliche Weite des Klassenanzapfungsmusters ist größer, wenn der Laplace-Wert eines Maximalwerts in der Vertikalrichtung klein ist. Wie außerdem in 18B und 18D gezeigt ist, wenn es Änderungen in der zeitlichen Richtung der Indizes "0101" und "0111" gibt, anders ausgedrückt, wenn das Bit (viertes Bit) in der zeitlichen Richtung ein ist, ist das Klassenanzapfungsmuster im gleichen Teilbild positioniert, um eine größere Änderung in der zeitlichen Richtung zu zeigen. Wenn dagegen, wie in 18A und 18C gezeigt ist, das Bit (viertes Bit) in der zeitlichen Richtung der Indizes "0100" und "0110" aus ist, sind die Anzapfungen auf unterschiedlichen Teilbildern positioniert, um eine kleine Änderung in der zeitlichen Richtung zu zeigen.
  • Die Klassenanzapfungsmuster für die Indizes "1010" und "1011", die in 19C und 19D gezeigt ist, haben Pixel, welche in schmäleren Intervallen in der nach rechts sich neigenden schrägen Richtung beabstandet sind als die Klassenanzapfungsmuster für die Indizes "1000" und "1001", die in 19A und 19B gezeigt ist, wodurch ein Laplace-Wert eines Maximalwerts in der nach rechts sich neigenden schrägen Richtung groß dargestellt ist. Das heißt, die räumliche Weite des Klassenanzapfungsmusters ist kleiner, wenn der Laplace-Wert eines Maximalwerts in der nach rechts sich neigenden schrägen Richtung groß ist, die räumliche Weite des Klassenanzapfungsmusters ist größer, wenn der Laplace-Wert eines Maximalwerts in der nach rechts sich neigenden schrägen Richtung klein ist. Wie außerdem in 19B und 19D gezeigt ist, wenn Bits in der zeitlichen Richtung der Indizes "1001" und "1011" ein sind, ist das damit verknüpfte Klassenanzapfungsmuster im gleichen Teilbild positioniert, um eine große Änderung in der zeitlichen Richtung zu zeigen. Wenn im Gegensatz dazu, wie in 19A und 19C gezeigt ist, Bits in der zeitlichen Richtung der Indizes "1000" und "1010" aus sind, sind die Anzapfung auf unterschiedlichen Teilbildern positioniert, um eine kleine Änderung in der zeitlichen Richtung zu zeigen.
  • Die Klassenanzapfungsmuster für die Indizes "1110" und "1111", die in 20C und 20D gezeigt sind, haben Pixel, welche in schmäleren Intervallen in der nach links sich neigenden schrägen Richtung beabstandet sind als die Klassenanzapfungsmuster für die Indizes "1101" und "1111", welche in 20A und 20B gezeigt sind, wodurch ein Laplace-Wert eines Maximalwerts in der nach links sich neigenden schrägen Richtung groß gezeigt wird. Das heißt, die räumliche Weite des Klassenanzapfungsmusters ist kleiner, wenn der Laplace-Wert eines Maximalwerts in der sich nach links neigenden schrägen Richtung groß ist, und die räumliche Weite des Klassenanzapfungsmusters ist größer, wenn der Laplace-Wert eines Maximalwerts in der nach links sich neigenden schrägen Richtung klein ist. Wie außerdem in 20B und 20D gezeigt ist, wenn Bits in der zeitlichen Richtung der Indizes "1101" und "1111" ein sind, ist das damit verknüpfte Klassenanzapfungsmuster im gleichen Teilbild positioniert, um eine große Änderung in der zeitlichen Richtung zu zeigen. Wie im Gegensatz dazu in 20A und 20C gezeigt ist, wenn Bits in der zeitlichen Richtung der Indizes "1100" und "1110" aus sind, sind die Anzapfungen auf unterschiedlichen Teilbildern positioniert, um eine kleine Änderung in der zeitlichen Richtung zu zeigen.
  • Auf diese Weise wird das Klassenanzapfungsmuster, wobei eine Klassenanzapfung in der großen Änderungsrichtung (einer Richtung des großen Laplace-Werts) in der räumlichen Richtung existiert, so festgelegt, dass die räumliche Weite des Laplace-Werts kleiner ist, wenn ein Maximalwert des Laplace-Werts groß ist. Das Klassenanzapfungsmuster wird weiter so festgelegt, dass das Anzapfungsmuster aus Anzapfungen im gleichen Teilbild zusammengesetzt ist, wenn der Laplace-Wert in der zeitlichen Richtung groß ist, und das Anzapfungsmuster der Anzapfungen auf dem anderen Teilbild (beispielsweise einem Vollbild) vom Anzapfungsmuster zusammengesetzt ist, wenn der Laplace-Wert in der zeitlichen Richtung klein ist.
  • Anschließend wird der obige Aufwärtsumsetzer 50 der sechsten Ausführungsform und die Arbeitsweise jeder Einheit des Aufwärtsumsetzers 50 beschrieben. Beim Zuführen eines SD-Videosignals S1 zur ersten Klassifikationseinheit 50A wird das SD-Videosignal S1 einer Laplace-Filterung in mehreren verschiedenen Pegelrichtungen im Raum durch die Laplace-Filter 51A bis 51D unterworfen. Absolutwerte a0 bis a3 der resultierenden Laplace-Werte L0 bis L3 werden durch die Absolutwertschaltungen 52A bis 52D berechnet und davon ausgegeben.
  • Dann werden die Absolutwerte a0 bis a3 zum Maximalwertdetektor 53 geliefert, um einen Maximalwert der Absolutwerte der gelieferten Laplace-Werte zu ermitteln. Die Richtung eines Rands im Raum des zugeführten Videosignals wird in Abhängigkeit von der Richtung des Laplace-Wertes L10 ermittelt, der als Maximalwert ermittelt wurde. Der Wert a10, der die Richtung des ermittelten Maximalwerts zeigt (Ermittlungsrichtungswert des Maximalwerts) wird in Form von zwei Bits dargestellt. Weiter kann der Maximalwert mit einem Schwellenwert verglichen werden, um eine Flachheit des zugeführten SD-Videosignals S1 zu zeigen, und der Wert, der die Flachheit (Flachheitswert) L10 zeigt, wird in Form eines Bits dargestellt. Ein Laplace-Wert L4 in der zeitlichen Richtung wird außerdem durch ein Laplace-Filter 51E bestimmt. Der Absolutwert a4 des Laplace-Werts L4 wird durch eine Absolutwertschaltung 52E berechnet und davon ausgegeben. Der Absolutwert a4 wird mit einem Schwellenwert TH1 durch eine Vergleichsschaltung verglichen, wodurch dieser als Wert ausgegeben wird, der eine Änderung der zeitlichen Richtung a11 (Änderungswert der zeitlichen Richtung) zeigt. Auf diese Weise kann die Charakteristik des zugeführten SD-Videosignals S1 grob erkannt werden. Die Klassifikationseinheit 50A liefert ein Vierbit-Steuersignal CT, welches aus dem Zwei-Bit-Ermittlungsrichtungswert eines Maximalwerts a10 besteht, einer Einbit-Flachheit L10 und einem Ein-Bit-Änderungswert der zeitlichen Richtung a11 besteht, zur zweiten Klassifikationseinheit 50B.
  • Die Klassifikationseinheit 50B in der nächsten Stufe legt ein räumliches Klassenanzapfungsmuster auf der Basis eines Index "I0 bis I3" entsprechend dem Vierbit-Steuersignal CT fest. Insbesondere schaltet die Klassifikationseinheit 50B die Auswahlorgane 55A bis 55E als Antwort auf das Steuersignal CT um, wählt ein Klassenanzapfungsmuster aus, welches durch das zugeführte SD-Videosignal S1 bestimmt wird, welches über die Registermatrix 57 geliefert wird, und liefert das ausgewählte Anzapfungsmuster zur ADRC-Klassifikationseinheit 58. Auf diese Weise kann eine hochgenaue Klassifikation auf der Basis eines Klassenanzapfungsmusters erreicht werden, welches die räumliche Aktivität des SD-Videosignals S1 reflektiert.
  • Außerdem wird das SD-Videosignal S1 von der Registermatrix 57 an die Vorhersageberechnungseinheit 50C in der nächsten Stufe ausgegeben. In einer Vorhersageanzapfungsmustereinheit 60 werden Vorhersagekoeffizienten, welche von einem Vorhersagekoeffizienten-RAM 59 gelesen werden, gemäß einem Steuersignal CT und einem ADRC-Code "c", und ein Vorhersageanzapfungsmuster zum Ausführen einer Vorhersageberechnung in der Vorhersageberechnungseinheit 61 wird gesetzt, danach wird das gesetzte Vorhersageanzapfungsmuster an die Vorhersageberechnungseinheit 61 ausgegeben. In der Vorhersageberechnungseinheit 61 wird eine Vorhersageberechnung durch eine lineare Kombination erster Ordnung unter Verwendung der Vorhersagekoeffizienten, die von dem Vorhersagekoeffizienten-RAM 59 gelesen werden, gemäß dem Steuerungssignal CT und dem ADRC-Code "c" ausgeführt, und das Vorhersageanzapfungsmuster, welches von der Vorhersageanzapfungs-Mustereinheit 60 geliefert wird, somit die HD-Interpolationspixel, werden ausgegeben.
  • Gemäß dem oben beschriebenen Aufbau führen die Laplace-Filter 51A bis 51E in der ersten Klassifikationseinheit 50A eindimensionale Laplace-Operationen in mehreren Richtungen durch, um die erste Klassifikation durch künstliches Bestimmen der Werte durchzuführen. Anschließend wird ein Klassenanzapfungsmuster der zweiten Klassifikationseinheit 50B gemäß dem Ergebnis der ersten Klassifikationseinheit 50A eingestellt. Dann führt die zweite Klassifikationseinheit 50B eine Klassifikation unter Verwendung des Klassenanzapfungsmusters durch. Daher kann eine hochgenaue Klassifikation des SD-Videosignals S1 erreicht werden, die die räumliche Aktivität des SD-Videosignals S1 widerspiegelt, so dass ähnliche Wirkungen wie bei den obigen Ausführungsformen erzeugt werden.
  • (7) Siebte Ausführungsform
  • 21 zeigt einen Aufwärtsumsetzer 65 nach einer siebten Ausführungsform, wobei Teile, die denjenigen von 14 entsprechen, mit den gleichen Bezugzeichen bezeichnet sind. Ähnlich wie bei der sechsten Ausführungsform wird bei der siebten Ausführungsform ein Klassenanzapfungsmuster für eine Klassifikation der zweiten Klassifikationseinheit 50B gemäß der ersten Klassifikation unter Verwendung der Laplace-Filter 51A bis 51E der ersten Klassifikation 50A eingestellt, und die zweitstufige Klassifikation wird auf der Basis des Klassenanzapfungsmusters ausgeführt, wodurch eine Klassifikation in zwei Schritten (Stufen) realisiert wird.
  • Der Aufbau des Aufwärtsumsetzers 65 bei der sechsten Ausführungsform wird unter Verwendung von 21 beschrieben. Ein SD-Videosignal S1, welches vom Eingangsanschluss IN zugeführt wird, wird zu einer Klassifikationseinheit 65A geliefert. Dann wird das SD-Videosignal S1, welches zur Klassifikationseinheit 65A geliefert wird, entsprechend zu Laplace-Filtern 51A und 51E und zu einer Verzögerungseinheit 56A geliefert. Fünf Laplace-Filter 51A bis 51E führen Laplace-Operationen bezüglich des zugeführten SD-Videosignals S1 eines Blocks eines jeden Vollbilds oder eines jeden Teilbilds des gelieferten SD-Videosignals in unterschiedlichen Richtungen für jedes Filter durch, und geben Laplace-Werte L0 bis L4 aus. Die Laplace-Filter 51A bis 51E verwenden die gleichen Laplace-Filter, welche beim Aufwärtsumsetzer 50 bei der sechsten Ausführungsform, die in 14 gezeigt ist, verwendet werden. Die Laplace-Filterwerte L0 bis L4 werden entsprechend zu Quantisierern 66A bis 66E in der nächsten Stufe geliefert.
  • Die Quantisierer 66A bis 66E berechnen Absolutwerte von entsprechenden Laplace-Werten L0 bis L4 und führen eine nichtlineare Quantisierung durch, um quantisierte Werte q0 bis q4 auszugeben. Wenn beispielsweise die Quantisierer 66A bis 66E das zugeführte SD-Videosignal S1 durch Quantisierung in quantisierte Werte q0 bis q4 umsetzen, von denen jeder einen oder zwei Werte, beispielsweise "0" und "+1" zeigen, kann das zugeführte SD-Videosignal S1 in eine Gesamtzahl von 32 (25) Arten unterschiedlicher Klassen klassifiziert werden. Das heißt, die Quantisierer quantisieren so, um einen quantisierten Wert "0" im Fall eines kleinen Absolutwerts zuzuteilen, und teilen einen quantisierten Wert "1" in dem Fall eines großen Absolutwerts zu. Die quantisierten Werte q0 bis q4 werden zu einem Kombinierer 67 geliefert, der Kombinierer 67 kombiniert die quantisierten Werte, um einen Fünf-Bit-Klassencode zu erzeugen, und gibt den Fünf-Bit-Klassencode an einen zweite Klassifikationseinheit 65B als Steuerungssignal CT aus, welches den ersten Klassifikationsschritt zeigt.
  • Die Klassifikationseinheit 65B schaltet Auswahlorgane 55A bis 55E auf der Basis des Steuerungssignals CT um, ähnlich wie bei der sechsten Ausführungsform, und wählt ein Anzapfungsmuster aus, welches aus neun Pixeln zusammengesetzt ist, welche SD-Pixel sind, die über ein Register 57 geliefert werden. Das Anzapfungsmuster, welches aus neun Pixeln besteht, die durch die Auswahlorgane 55A bis 55E ausgewählt wurden, wird zu einer Einbit-ADRC-Klassifikationseinheit 58 geliefert, und die Einbit-ADRC-Klassifikationseinheit 58 führt die zweitstufige Klassifikation, um 512 (29) Arten unterschiedlicher Klassencodes zu erzeugen, durch Ausführen einer ADRC-Operation für das zugeführte Klassenanzapfungsmuster durch. Auf diese Weise werden 16384 Arten unterschiedlicher Klassen durch eine Kombination einer Klasse der erststufigen Klassifikationseinheit 65 und durch eine Klasse der zweitstufigen Klassifikationseinheit 65B erreicht. Die ADRC-Klassifikationseinheit 65 erzeugt einen Neunbit-Klassencode, und der Neunbit-Klassencode und der erststufige Klassencode, der durch die Verzögerungsschaltung 56B zugeführt wird, werden zur Vorhersagewert-Berechnungseinheit 65C geliefert. Die Erläuterung der Berechnungseinheit 65C wird ausgelassen, da diese ähnlich ist wie bei der obigen sechsten Ausführungsform. Außerdem wird die Figur eines Klassenanzapfungsmusters, welches in der Klassifikationseinheit 65B gemäß einem Steuersignal CT verwendet wird, welches von der ersten Klassifikationseinheit 65A geliefert wird, ausgelassen. Als Klassenanzapfungsmuster wird jedoch ein Anzapfungsmuster festgelegt, derart, dass eine räumliche Weite eines Anzapfungsmusters kleiner ist und eine Anzapfung weiter in der Richtung ist, in welcher der Laplace-Wert größer ist, wenn der Laplace-Wert groß ist. Außerdem wird das Anzapfungsmuster so festgelegt, dass das Anzapfungsmuster aus einer Anzapfung auf dem gleichen Teilbild besteht, in dem Fall, wo der Laplace-Wert in der zeitlichen Richtung groß ist, das Anzapfungsmuster aus einer Anzapfung aus einem anderen Teilbild (beispielsweise Rahmen) besteht in dem Fall, wo der Laplace-Wert in der zeitlichen Richtung klein ist. Durch den obigen Aufbau ist es möglich, ähnliche Wirkungen wie bei den obigen Ausführungsformen zu erzielen.
  • (8) Achte Ausführungsform
  • 22 zeigt eine Klassifikationseinheit 70 eines Aufwärtsumsetzers gemäß einer achten Ausführungsform, wobei Teile, die denjenigen in 4, 5 entsprechen, mit den gleichen Bezugszeichen versehen sind. Ein SD-Videosignal S1, welches von einem Eingangsanschluss IN zugeführt wird, wird parallel zu einer ADRC-Klassifikationseinheit 71 und zu mehreren Klassenanzapfungsauswahlorganen 72 (72A bis 72G) geliefert. Die ADRC-Klassifikationseinheit 71 führt eine Klassifikation des gelieferten SD-Videosignals S1 gemäß einem Pixelpegel-Verteilungsmuster durch eine ADRC-Operation unter Verwendung von vier Pixeln des rund-markierten Pixels durch, welches vom zugeführten SD-Videosignal S1 extrahiert wird, und beliefert ein Auswahlorgan 73 mit einem resultierenden ADRC-Code "c". Das Auswahlorgan 73 wird außerdem mit Anzapfungsmustern beliefert, die als Raumklassen durch die Klassenanzapfungs-Musterauswahlorgane 72A bis 72G klassifiziert wurden, wobei jedes dazu ist, um ein Raumklassen-Anzapfungsmuster festzulegen, welches gemäß der Charakteristik des zugeführten SD-Videosignals S1 bestimmt wird.
  • Insbesondere legt für eine Pegelverteilung (73A, 73B, 74A, 74B, 75A, 75B, 76A, 76B, 77A, 77B, 78A, 78B, 79A, 79B, 80A, 80B), die durch jeden ADRC-Code "c" angedeutet ist, der von einer Einbit-ADRC-Operation resultiert, der in bezug auf jedes vierte Pixel für das rund-markierte Pixel des gelieferten SD-Videosignals S1 durchgeführt wird, ein jedes der Auswahlorgane 72A bis 72G ein Klassenanzapfungsmuster (81, 82, 83, 84, 85, 86, 87) fest, um die Signalcharakteristik entsprechend der damit verbundenen Pegelverteilung zu zeigen, wie in 23A, 23B, 23C, 23D, 24A, 24B und 24C gezeigt ist.
  • Beispielsweise zeigen die Pegelverteilungen 73A und 73B, die durch ADRC-Codes "c" angezeigt sind, entsprechend Pegelverteilungscharakteristiken in einer nach rechts sich neigenden Richtung (der Richtung einer Diagonalen vom oberen linken Ende zum unteren linken Ende auf der Ebene der Zeichnung). Da man sich einen Rand des Bilds so ausdenkt, dass sie in dieser Richtung existiert, entspricht ein Klassenanzapfungsmuster 81 in der sich rechts neigenden schrägen Richtung den Pegelverteilungen 73A und 73B. Da in ähnlicher Weise die Pegelverteilungen 74A und 74B, welche durch ADRC-Codes "c" angedeutet sind, entsprechend Pegelverteilungscharakteristiken in einer sich nach links neigenden Richtung zeigen (der Richtung einer Diagonalen vom oberen rechten Ende zum linken unteren Ende auf der Ebene der Zeichnung), entspricht ein Klassenanzapfungsmuster 82 in der nach links sich neigenden schrägen Richtung den Pegelverteilungen 74A und 74B. Da außerdem Pegelverteilungen 75A und 75B, 76A und 76B, die durch ADRC-Codes "c" angedeutet sind, Pegelverteilungscharakteristiken zeigen, die auf der linken Seite und auf der rechten Seite entsprechend versetzt sind, entsprechen Klassenanzapfungsmuster 83 und 84, die Vorhersageanzapfungen haben, die auf die linke Seite und auf die rechte Seite versetzt sind, den Pegelverteilungen 75A und 75B, 76A und 76B entsprechend.
  • Da weiter Pegelverteilungen 77A und 77B, 78A und 78B, die durch ADRC-Codes "c" angedeutet sind, Pegelverteilungscharakteristiken zeigen, die auf die obere Seite und auf die untere Seite versetzt sind, entsprechen die Klassenanzapfungsmuster 85, 86, die Klassenanzapfungen haben, die auf die obere Seite und auf die untere Seite versetzt sind, den Pegelverteilungen 77A und 77B, 78A und 78B entsprechend. Da Pegelverteilungen 79A und 79B, 80A und 80B, welche durch ADRC-Codes "c" angedeutet sind, reguläre Pegelverteilungscha rakteristiken zeigen, entspricht ein Klassenanzapfungsmuster 87, welches alle Klassenanzapfungen verwendet, den Pegelverteilungen 79A und 79B, 80A und 80B entsprechend.
  • Auf diese Weise wird ein Klassenanzapfungsmuster p10 im Auswahlorgan 73 gemäß den ADRC-Codes "c" von den Klassenanzapfungsmustern ausgewählt, die in den Anzapfungsmusterauswahlorganen 72A bis 72G festgesetzt sind, und zu einer ADRC-Klassifikationseinheit 26 in der nächsten Stufe geliefert. Die ADRC-Klassifikationseinheit 26 verwendet das ausgewählte Vorhersageanzapfungsmuster p10, um eine Einbit-ADRC-Operation in bezug auf das SD-Videosignal S1 durchzuführen und beliefert einen Vorhersagekoeffizienten-ROM 14 mit dem resultierenden ADRC-Code d0 als Adressdaten zum Lesen entsprechender Vorhersagekoeffizienten.
  • Anschließend wird die Arbeitsweise der Klassifikationseinheit 70 im Aufwärtsumsetzer bei der achten Ausführungsform beschrieben.
  • Das zugeführte Videosignal S1 wird zur ersten ADRC-Klassifikationseinheit 81 geliefert, welche eine Einbit-ADRC-Operation unter Verwendung von vier Pixeln für das rund-markierte Pixel ausführt und erzeugt einen Klassencode "c". Das zugeführte SD-Videosignal S1 wird außerdem in mehrere Klassenanzapfungsmuster 81 bis 87 klassifiziert, die die Signalcharakteristik in Klassenanzapfungs-Musterauswahlorganen 72A bis 72G reflektieren. Dann wird ein Klassenanzapfungsmuster p10 von den mehreren Klassenanzapfungsmustern 81 bis 87 gemäß dem Klassencode "c" ausgewählt, der von der ersten ADRC-Klassifikationseinheit 71 geliefert wird, und an eine ADRC-Klassifikationseinheit 26 in der nächsten Stufe ausgegeben. Die ADRC-Klassifikationseinheit 26 führt eine Einbit-ADRC-Operation in bezug auf das zugeführte SD-Videosignal S1 durch, welches das ausgewählte Klassenanzapfungsmuster p10 gebildet hat, um einen Klassencode d0 zu erzeugen, und liefert den Klassencode d0 zum Vorhersagekoeffizienten-ROM 14 als Adressdaten.
  • Gemäß der oben beschriebenen Konfiguration wird zum Erzeugen von Adressdaten, um Vorhersagekoeffizienten auszuwählen, ein Klassenanzapfungsmuster gemäß der räumlichen Aktivität eines zugeführten SD-Videosignals S1 ausgewählt, welches durch die ADRC-Klassifikationseinheit 71 in der ersten Stufe ermittelt wurde. Dann wird die zweitstufige ADRC-Klassifikation durch die ADRC-Klassifikationseinheit 26 unter Verwendung des ausgewählten Klassenanzapfungsmusters p10 ausgeführt, so dass der Klassencode d0, der die räumliche Aktivität des zugeführten SD-Videosignals S1 reflektiert, erzeugt werden kann, wodurch ähnliche Wirkungen wie bei den obigen Ausführungsformen erzielt werden.
  • Gemäß der Ausführungsform, die oben beschrieben wurde, wird zusätzlich ein Vorhersageanzapfungsmuster, welches für eine Vorhersageberechnung verwendet wird, gemäß der räumlichen Aktivität des zugeführten SD-Videosignals S1 geändert, so dass die Berechnungsverarbeitung reduziert werden kann, wenn es viele Vorhersageanzapfungen gibt.
  • Wie bei der ersten Ausführungsform kann die Anzahl von Quantisierungsbits in der zweitstufigen ADRC-Klassifizierungseinheit 26 auf der Basis des ausgegebenen Signals umgeschaltet werden, welches von der erststufigen ADRC-Klassifikationseinheit 71 ausgegeben wird.
  • (9) Neunte Ausführungsform
  • 25 zeigt einen Aufwärtsumsetzer 90 gemäß einer neunten Ausführungsform. Der Aufwärtsumsetzer 90 führt eine grobe Klassifikation für eine Intra-Raum-Aktivität gemäß einer Einbit-ADRC-Operation in einer erststufigen Klassifikationseinheit durch und führt dann eine Multibit-ARDC-Operation für eine Detailklassifikation in einer zweistufigen Klassifikationseinheit durch.
  • Bei dem Aufwärtsumsetzer 90 wird ein SD-Videosignal S1, welches über einen Eingangsanschluss IN zugeführt wird, entsprechend an einen erststufigen Block 91, Verzögerungsschaltungen 97 und 101 ausgegeben. Der erststufige Block 91 extrahiert einen Block von n × m Pixeln (beispielsweise 5 × 5 Pixeln in 26), die um ein angemerktes Pixel zentriert sind (angedeutet durch "
    Figure 00390001
    " in 26), in einem laufenden Vollbild oder Teilbild eines SD-Videosignals S1 in einem erststufigen Block 91, wie in 26 gezeigt ist, und beliefert eine Einbit-ADRC-Klassifikationseinheit 92 mit resultierenden Blockdaten b1.
  • Die Einbit-ADRC-Klassifikationseinheit 92 führt eine Einbit-ADRC-Operation bezüglich der Blockdaten b1 durch, welche aus 5 × 5 Pixeln bestehen, und liefert einen resultierenden ADRC-Code c10 zu einem ROM 94, nachdem dieser eine Verzögerungsschaltung 93A zum Einstellen des Zeittakts durchlaufen hat. Die Einbit-ADRC-Klassifikationseinheit 92 beliefert außerdem eine Komparatorschaltung 95 mit einem dynamischen Bereich DR, der berechnet wurde, wenn der ADRC-Code c10 hergeleitet wurde. Simultan damit beliefert die Einbit-ADRC-Klassifikationseinheit 92 eine Multibit-ADRC-Klassifikationseinheit 96 mit dem dynamischen Bereich DR und mit einem Minimalpixelpegel MIN.
  • Die Komparatorschaltung 95 vergleicht den dynamischen Bereich DR mit einem Schwellenwert TH und beliefert das Vergleichsergebnis CR über eine Verzögerungsschaltung 93B zum ROM 94. Die Multibit-ADRC-Klassifikationseinheit 96 führt keine Klassifikation auf der Basis des Vergleichsergebnisses CR durch, wenn der dynamische Bereich DR kleiner als der Schwellenwert TH ist (CR gleich "0"). Dagegen führt die Multibit-ADRC-Klassifikationseinheit 96 die Klassifikation durch, wenn der dynamische Bereich DR größer ist als der Schwellenwert (CR gleich "1"). Bei dieser Ausführungsform jedoch wird die Multibit-ADRC-Klassifikation allgemein ausgeführt. Daher wird in einem ROM 94 in der nachfolgenden Stufe ein ADRC-Code c11 von der Multibit-ADRC-Klassifikationseinheit 96 ignoriert, wodurch erwogen wird, die Multibit-ADRC-Klassifikation auszuführen. Um nicht die Multibit-ADRC-Klassifikation auszuführen, wird das Vergleichsergebnis CR zur Multibit-ADRC-Klassifikationseinheit 96 geliefert, wie durch eine gestrichelte Linie in 25 gezeigt ist, wodurch es gesteuert werden muss, damit es die Multibit-ADRC-Klassifikation nicht ausführt.
  • Das SD-Videosignal S1, welches durch die Verzögerungsschaltung 97 verzögert wurde, wird, damit dessen Zeittakt eingestellt wird, zu einem zweitstufigen Block 98 geliefert, der beispielsweise Blockdaten b2 von neun Pixeldaten bestimmt, die aus 3 × 3 Pixeln bestehen, einschließlich eines angemerkten Pixels, wie in 26 gezeigt ist, welche zur Multibit-ADRC-Klassifikationseinheit 96 geliefert werden. Die Multibit-ADRC-Klassifikationseinheit 96 verwendet den dynamischen Bereich DR und den Minimalpixelpegel MIN, der in der Einbit-ADRC-Klassifikationseinheit 92 berechnet wurde, um die Blockdaten b2 zu klassifizieren und liefert einen resultierenden ADRC-Code c11 zum ROM 94.
  • Wie in 27 gezeigt ist, wird eine Tabelle vorher durch Lernen für den Klassencode d0 erzeugt, der eine hierarchische Struktur hat, gemäß der Klassifikation des ADRC-Codes c10, der als Ergebnis der Einbit-ADRC-Klassifikationseinheit 92 hergeleitet wird, und der ADRC-Code c11, welcher als Ergebnis der Multibit-ADRC-Klassifikationseinheit 96 hergeleitet wird, und wurde im ROM 94 gespeichert. Die Klassifikationseinheit 90 liest einen Klassencode d0 gemäß ADRC-Codes c10 und c11, die durch die Einbit-ADRC-Klassifikationseinheit 92 und die Multibit-ADRC-Klassifikationseinheit 96 hergeleitet wurden, auf der Basis des Vergleichsergebnisses CR und liefert den gelesenen Klassencode d0 zum Vorhersagekoeffizienten-RAM 99 in der nächsten Stufe. In der gleichen Weise werden Vorhersagekoeffizienten, die durch Lernen hergeleitet werden, im Vorhersagekoeffizienten-RAM 99 gemäß den Klassencodes d0 gespeichert, die in einer hierarchischen Struktur angeordnet sind.
  • Ein Satz an Vorhersagekoeffizienten wird sequentiell aus dem Vorhersagekoeffizienten-RAM 99 mit dem Klassencode d0, der als Adressdaten verwendet wird, gelesen und zu einer Vorhersageberechnungseinheit 100 geliefert, um HD-Interpolationspixel zu berechnen, wobei eine Produktsummenberechnung mit dem SD-Videosignal S1 ausgeführt wird. Die Vorhersageanzapfungs-Einstelleinheit 102 wird mit dem SD-Videosignal S1 beliefert, welches durch eine Verzögerungsschaltung 101 verzögert wurde, und gibt ein Vorhersageanzapfungsmuster, wie in 28 gezeigt ist, welches in der Vorhersageberechnungseinheit 100 verwendet wird, an die Vorhersageberechnungseinheit 100 aus. Die Vorhersageanzapfungs-Einstelleinheit 102 erzeugt Interpolationspixel unter Verwendung eines Vorhersageanzapfungsmusters, wie in 28 gezeigt ist. Auf diese Weise führt die Vorhersageberechnungseinheit 100 eine lineare Vorhersageberechnung mit der Gruppe von Vorhersagekoeffizienten entsprechend dem SD-Videosignal S1 durch, um Interpolationspixel zu erzeugen.
  • Anschließend wird der Aufwärtsumsetzer 90 gemäß der neunten Ausführungsform und die Arbeitsweise jeder Einheit des Aufwärtsumsetzers 90 beschrieben.
  • Ein SD-Videosignal S1, welches zum erststufigen Block 91 des Aufwärtsumsetzers 90 geliefert wird, wird in der Einheit von 5 × 5 Pixelblöcken extrahiert, bei denen ein angemerktes Pixel die Mitte bildet, und jeder Pixelblock wird in der Einbit-ADRC-Klassifikationseinheit 92 klassifiziert. Dann wird ein dynamischer Bereich DR jedes Pixelblocks, der von der Einbit-ADRC-Klassifikationseinheit 92 ausgegeben wird, mit einem vorher festgelegten Schwellenwert TH in der Komparatorschaltung 95 verglichen. In diesem Zeitpunkt wird, wenn der dynamische Bereich DR größer ist als der Schwellenwert TH, die Multibit-ADRC-Klassifikation ausgeführt. Dann wird ein Klassencode d0 vom ROM 94 auf der Basis der Ergebnisse der Einbit-ADRC-Klassifikationseinheit 92 und der Multibit-ADRC-Klassifikationseinheit 96 gelesen. Wenn dagegen der dynamische Bereich DR kleiner ist als der Schwellenwert TH, wird ein Klassencode vom ROM 94 lediglich auf der Basis des Ergebnisses der Einbit-ADRC-Klassifikationseinheit 92 gelesen, ohne die Multibit-ADRC-Klassifikation auszuführen.
  • Auf diese Weise wird der Klassencode d0 vom ROM 94 gemäß den Ergebnissen der Einbit-ADRC-Klassifikationseinheit 92 und/oder der Multibit-ADRC-Klassifikationseinheit 96 gelesen und zum Vorhersagekoeffizienten-RAM 99 als Adressdaten geliefert. Die Intra-Raum-Aktivität wird in der erststufigen Klassifikation grob ausgewertet, und eine ausführliche Klassifikation wird gemäß der Intra-Raum-Aktivität in der zweiten Stufe ausgeführt, so dass das zugeführte SD-Videosignal S1 passend klassifiziert werden kann, wobei dessen Intra-Raum-Aktivität reflektiert wird.
  • Ein Satz von Vorhersagekoeffizienten wird aus dem Vorhersagekoeffizienten-RAM 99 gemäß dem Klassencode d0 gelesen und zur Vorhersageberechnungseinheit 100 geliefert. Die Vorhersageberechnungseinheit 100 führt eine Vorhersageberechnung unter Verwendung der Vorhersagekoeffizienten bezüglich des Vorhersageanzapfungsmusters durch, welches im Vorhersageanzapfungsmuster-Auswahlorgan 102 ausgewählt wurde, um HD-Interpolationspixel zu erzeugen und auszugeben.
  • Gemäß dem oben beschriebenen Aufbau wird eine grobe Klassifikation in der ersten Stufe ausgeführt, und eine detaillierte Klassifikation wird in der zweiten Stufe ausgeführt, so dass ein zugeführtes SD-Videosignal S1 genauer ausführlich in einer zweiten Stufe gemäß der Signalcharakteristik des zugeführten DS-Videosignals S1, welches durch die erststufige Klassifikation enthüllt ist, klassifiziert werden kann. Dies erzeugt ähnliche Wirkungen wie bei den obigen Ausführungsformen. Außerdem kann, wenn die Klassifikation lediglich in der ersten Stufe abgeschlossen wird, die gesamte Klassifikationsverarbeitung reduziert werden.
  • (10) Weitere Ausführungsformen
  • Obwohl sich die obigen Ausführungsformen mit dem Fall befasst haben, wo ein ADRC-Klassifikationsverfahren als Klassifikationsverfahren auf der Basis von komprimierten Daten des Eingangsvideosignals verwendet wird, ist die vorliegende Erfindung jedoch nicht darauf beschränkt, sondern es kann eine Klassifikation durch Kompressionsdaten unter Verwendung anderer Verfahren ausgeführt werden, einschließlich beispielsweise derjenigen, bei denen DPCM (Differential Pulse Code Modulation), VQ (Vektorquantisierung) und MSB(Most Significant Bit)-Binärbildung, diskrete Kosinus-Transformation (DCT) usw. verwendet werden.
  • Obwohl die obigen Ausführungsformen sich mit dem Fall befasst haben, wo die Klassifikationseinheit 12 die Klassifikation in zwei Stufen oder in drei Stufen ausführt, ist die vorliegende Erfindung nicht auf die Klassifikation beschränkt, die durch diese besondere Anzahl von Stufen beendet wird, sondern es kann die Klassifikation mit einer größeren Anzahl von Stufen durchgeführt werden, wenn die Adaptierbarkeit erfolgreich in nachfolgenden Stufen nach einer groben Klassifikation in der ersten Stufe vergrößert wird. Mit einer größeren Anzahl von Stufen kann eine genauere Klassifikation erreicht werden.
  • Obwohl sich die obigen Ausführungsformen mit dem Fall befasst haben, wo ein zweidimensionales nichtrennbares Filter als Aufwärtsumsetzer verwendet wird, ist die vorliegende Erfindung nicht auf diese Art von Aufwärtsumsetzer beschränkt, und sie kann bei einem Aufwärtsumsetzer 110 verwendet werden, der einen vertikalen/horizontalen trennbaren Filteraufbau aufweist, wie in 29 gezeigt ist, wo Teile, die denjenigen in 4 entsprechen, mit den gleichen Bezugszeichen versehen sind.
  • Bei dem Aufwärtsumsetzer 110 wird ein SD-Videosignal S1, welches über einen Eingangsanschluss IN zugeführt wird, zunächst zu einer Klassifikationseinheit 12 und einer Vorhersageberechnungseinheit 111 geliefert. Die Vorhersageberechnungseinheit 111 ist zwei Sätze unterteilt: eine vertikale Vorhersageberechnungseinheit 111A und eine horizontale Vorhersageberechnungseinheit 111B, die den Positionen Modus 1 und Modus 2 auf einer Abtastzeile entsprechend entsprechen, und in eine vertikale Vorhersageberechnungseinheit 111C und eine horizontale Vorhersageberechnungseinheit 111D, welchen Positionen Modus 3 und Modus 4 einer Abtastzeile entsprechend entsprechen. Die Klassifikationseinheit 12 erzeugt zur Anpassung der Klassifikation der obigen Ausführungsform einen Klassencode d0 gemäß dem zugeführten SD-Videosignal S1, der zu einem Vorhersagekoeffizienten-ROM 112 geliefert wird, der als Speichereinrichtung dient, der Anzapfungsvorhersagekoeffizienten vorher speichert. Der Vorhersagekoeffizienten-ROM 112 ist in einen vertikalen Koeffizienten-ROM 112A unterteilt, um Vertikalkomponenten von Anzapfungsvorhersagekoeffizienten zu speichern, und in einen Horizontalkoeffizienten-ROM 112B, um Horizontalkomponenten von Anzapfungsvorhersagekoeffizienten zu speichern. Der Klassencode d0 wird zum Vertikalkoeffizienten-ROM 112A und zum Horizontalkoeffizienten-ROM 112B geliefert.
  • Zunächst wird ein Vertikalvorhersagekoeffizient d6, der vom Vertikalkoeffizienten-ROM 112A ausgegeben wird, zu Vertikalvorhersage-Berechnungseinheiten 111A und 111C geliefert. Die Vertikalvorhersage-Berechnungseinheiten 111A und 111C erzeugen Vertikalschätzwerte d7 und d8 durch eine Produktsummenberechnung des zugeführten SD-Videosignals S1 und des Vertikalvorhersagekoeffizienten d6. Die Vertikalschätzwerte d7 und d8 werden zu Horizontalvorhersage-Berechnungseinheiten 111B bzw. 111D in der nächsten Stufe geliefert.
  • Ein Horizontalvorhersagekoeffizient d9, der vom Horizontalkoeffizienten-ROM 112B erzeugt wird, wird zu Horizontalvorhersage-Berechnungseinheiten 111B und 111D geliefert. Die Horizontalvorhersage-Berechnungseinheiten 111B und 111D erzeugen HD-Pixelsignale d10 und d11, wobei eine Produktsummenberechnung des Horizontalvorhersagekoeffizienten d9 und der Vertikalschätzwerte d7 und d8 durchgeführt wird. Die HD-Pixelsignale d10 und d11 werden selektiv zu einem Auswahlorgan 15 geliefert, wo sie geeignet umgeordnet werden, wodurch ein HD-Signal S2, welches ein Endausgangssignal ist, von einem Ausgangsanschluss OUT ausgegeben wird.
  • Obwohl sich die obigen Ausführungsformen mit dem Fall befassten, wo Vorhersagekoeffizienten, die jeweils eine Korrelation zwischen einem angemerkten SD-Pixel und übertragenen Pixeln um dieses angemerkte Pixel herum zeigen, verwendet werden, um HD-Pixel um das angemerkte Pixel von SD-Pixeln herum zu erzeugen, ist die vorliegende Erfindung jedoch nicht auf diese Form zum Erzeugen von HD-Pixeln beschränkt, sondern es können Vorhersagewerte für HD-Interpolationspixel vorher für jede Klasse anstelle der Vorhersagekoeffizienten festgelegt werden und in einer Speichereinrichtung gespeichert werden. Das Umsetzen eines SD-Videosignals in ein HD-Videosignal unter Verwendung von Vorhersagewerten kann durch einen Aufwärtsumsetzer 119 durchgeführt werden, wie in 30 gezeigt ist, wo Teile, die denjenigen von 4 entsprechen, mit den gleichen Bezugszeichen versehen sind.
  • Beim Aufwärtsumsetzer 115 wird ein SD-Videosignal S1 über einen Eingangsanschluss IN einer Klassifikationseinheit 12 zugeführt. Die Klassifikationseinheit 12 erzeugt einen Klassencode d0 auf der Basis der Kennlinie von SD-Pixeln um die HD-Interpolationspixel herum, die Interpolationspixel sind, die neu erzeugt werden sollen, und liefert den Klassencode d0 zu Vorhersagewerte-ROMs 116A bis 116D. Die Vorhersagewerte-ROMs 116A bis 116D speichern Vorhersagewerte, welche Vorhersagedaten für HD-Interpolationspixel bilden, die vorher durch Lernen gemäß dem Klassencode d0 für jede Klasse berechnet wurden. Vorhersagewerte d20 bis d23 für HD-Interpolationspixel werden vom Vorhersagewert-ROM 116 mit dem Klassencode d0 gelesen, der als Adressdaten verwendet wird, und über ein Auswahlorgan 15 an einen Ausgangsanschluss OUT ausgegeben. Auf diese Weise ist es möglich, ein hochauflösendes Videosignal zu erzeugen, welches die Vorhersagewerte d20 bis d23 hat, die als HD-Interpolationspixel verwendet werden, die in Signalpixel eingefügt sind, die das Eingangsvideosignal S1 bilden.
  • Ein erstes Verfahren zum Berechnen der Vorhersagewerte kann ein Lernverfahren sein, bei dem ein Wichtungsmittelwertbildungsverfahren verwendet wird. Das Wichtungsmittelwertbildungsverfahren klassifiziert angemerkte Pixel unter Verwendung von SD-Pixeln um die markierten Pixel herum und unterteilt einen Pixelwert der markierten Pixel (d. h., HD-Pixel), die aufaddiert sind, für jede Klasse durch eine Frequenz, die gemäß der Anzahl der markierten Pixel erhöht wird. Diese Operationen werden bezüglich einer Vielzahl von Bildern durchgeführt, um Vorhersagewerte herzuleiten.
  • Ein zweites Verfahren zum Berechnen von Vorhersagewerten kann ein Lernverfahren durch Normierung sein. Dieses Lernverfahren bildet zunächst einen Block, der mehrere Pixel umfasst, einschließlich eines markierten Pixels, nutzt einen dynamischen Bereich im Block, um einen Wert zu normieren, der durch Subtraktion eines Referenzwertes des Blocks vom Pixelwert des markierten Pixels berechnet wird. Anschließend wird ein akkumulierter Wert der normierten Werte durch eine akkumulierte Frequenz unterteilt, um einen Vorhersagewert herzuleiten.
  • Bei der obigen Ausführungsform wird eine Intra-Aktivität für ein zugeführtes SD-Videosignal ausgewertet, das Anzapfungsmuster zum Ausführen von Klassifikationen wird auf der Basis eines Ergebnisses der Auswertung ausgewählt, wobei die vorliegende Erfindung jedoch nicht darauf beschränkt ist, sondern eine Intra-Aktivität für ein zugeführtes SD-Videosignal ausgewertet und ein Vorhersageanzapfungsmuster durch eine lineare Kombination erster Ordnung eines Vorhersagekoeffizienten in einer Vorhersageberechnungseinheit auf der Basis des Ergebnisses der Auswertung berechnet wird. In diesem Fall wird beispielsweise ein Steuersignal CT, welches von der Klassifikationseinheit 50A geliefert wird, die in 14 gezeigt ist, zur Vorhersageanzapfungs-Mustereinheit 60 in der Berechnungseinheit 50C geliefert.
  • Bei der obigen Ausführungsform wird außerdem ein Vorhersagekoeffizient eines Vorhersagekoeffizientenspeichers auf der Basis von sowohl eines Klassencodes, der von der erststufigen Klassifikationseinheit geliefert wird, als auch eines Klassencodes, der von der zweitstufigen Klassifikationseinheit gelesen wird, gelesen. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt, und es kann ein Vorhersagekoeffizient eines Vorhersagekoeffizientenspeichers unter Verwendung entweder eines Klassencodes, der von der erststufigen Klassifikationseinheit geliefert wird, oder eines Klassencodes, der von der zweitstufigen Klassifikationseinheit geliefert wird, gelesen werden.
  • Bei der obigen Ausführungsform wird ein SD-Videosignal in ein HD-Videosignal umgesetzt. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt, und es kann das SD-Videosignal zur Erzeugung von Interpolationspixeln zum Vergrößern und Ändern eines Bilds angewandt werden. Das SD-Videosignal kann außerdem an ein Signalumsetzungsgerät angelegt werden, beispielsweise einen Umsetzer zum Umsetzen von Signalen des NTSC-Verfahrens in Signale des PAL-Verfahrens, um Signale mit einer geringeren Anzahl von Pixeln in Signale mit einer größeren Anzahl von Pixeln umzusetzen. Das SD-Videosignal kann auch bei einem YC-Trenngerät angewandt werden, um Signale mit höherer Genauigkeit als frühere Signale zu erzeugen.
  • Gemäß den Ausführungsformen der vorliegenden Erfindung wird, wie oben beschrieben, eine Intra-Raum-Aktivität ausgewertet und für jeden Block eines zugeführten Videosignals klassifiziert, und jeder Block des zugeführten Videosignals wird in einer geeigneten Anzahl von Schritten gemäß einem Aktivitätscode klassifiziert, der als Ergebnis der Klassifizierung erzeugt wird. Somit werden der Aktivitätscode, der in dem ersten Schritt erzeugt wird, und das Ergebnis von Klassifikationen in vorhergehenden Stufen auf Klassifikationen in nächsten und nachfolgenden Stufe reflektiert, so dass eine hochgenaue Klassifikation für das Eingangsvideosignal erreicht werden kann und hochgenaue Interpolationspixel vorhergesagt werden können und für ein Eingangsbild mit niedriger Auflösung erzeugt werden kann, wobei Vorhersagekoeffizienten verwendet werden oder Vorhersagewerte auf der Basis der Ergebnisse der Klassifikationen, wodurch es möglich wird, einen Signalumsetzer und ein Signalumsetzungsverfahren zu realisieren, mit dem ein hochauflösendes Videosignal erzeugt werden kann.
  • Obwohl die Erfindung in Verbindung mit bevorzugten Ausführungsformen beschrieben wurde, ist es für den Fachmann offensichtlich, dass verschiedene Änderungen und Modifikationen ausgeführt werden können, wobei in den angehängten Patentansprüchen alle Änderungen und Modifikationen abgedeckt sein sollen, die in den Rahmen der Erfindung fallen.

Claims (33)

  1. Signalumsetzungsgerät zum Umsetzen eines ersten Eingangsvideosignals (S1) in ein zweites Videosignal (S2), welches gegenüber dem ersten Videosignal verschieden ist, welches aufweist: eine Einrichtung zum Auswerten (21, 50A, 51a bis 51d) einer räumlichen Aktivität des ersten Videosignals, um einen Aktivitätscode (Co) zu erzeugen; eine Einrichtung (22, 23, 24, 25, 26) zum Klassifizieren des ersten Videosignals auf der Basis des Aktivitätscodes und auf der Basis von Pixelmustern des ersten Videosignals, um einen Klassencode (C1) auf der Basis des Ergebnisses der Klassifizierung zu erzeugen; einen Vorhersagekoeffizientenspeicher (14), der Vorhersagekoeffizienten zur Verwendung bei der Vorhersageerzeugung des zweiten Videosignals speichert; und eine Einrichtung (13, 15) zur Vorhersageberechnung des zweiten Videosignals vom ersten gelieferten Videosignals unter Verwendung der Vorhersagekoeffizienten, welche vom Vorhersagekoeffizientenspeicher (14) gelesen werden, gemäß dem Aktivitätscode (Co) und dem Klassencode (C1).
  2. Gerät nach Anspruch 1, wobei die Klassifizierungseinrichtung eine Einheit (22 bis 24, 25) aufweist, um mehrere unterschiedliche Muster (p0, p1, p2) des ersten Videosignals festzulegen und um ein vorerwähntes Muster gemäß dem Aktivitätscode (Co) auszuwählen und um den Klassencode (C1) in Abhängigkeit vom Aktivitätscode (Co) und dem ausgewählten Muster zu erzeugen (26).
  3. Signalumsetzungsgerät nach Anspruch 1 oder 2, wobei das zweite Videosignal eine höhere Auflösung als das erste Videosignal hat.
  4. Signalumsetzungsgerät nach Anspruch 1, 2 oder 3, wobei das zweite Videosignal eine größere Anzahl von Pixeln als das erste Videosignal hat.
  5. Gerät nach einem der vorhergehenden Ansprüche, wobei die Auswertungseinrichtung (50A, 51E) außerdem die zeitliche Richtungsaktivität des ersten Videosignals auswertet, um den Aktivitätscode zu erzeugen.
  6. Signalumsetzungsgerät nach Anspruch 1, wobei die Auswertungseinrichtung (21) die räumliche Aktivität unter Verwendung eines dynamischen Bereichs einer Gruppe von Pixeln in einem Bereich auswertet, die einem bemerkten Pixel im ersten Videosignal benachbart sind, um den Aktivitätscode zu erzeugen.
  7. Signalumsetzungsgerät nach Anspruch 1, wobei die Auswertungseinrichtung (35, 36, 37) die räumliche Aktivität unter Verwendung einer Verteilung von Pegeln von quantisierten Werten (C1) auf der Basis der dynamischen Bereiche einer Gruppe von Pixeln in einem Bereich auswertet, die einem bemerkten Pixel im ersten Videosignal benachbart sind, um den Aktivitätscode zu erzeugen.
  8. Signalumsetzungsgerät nach Anspruch 1, wobei die Auswertungseinrichtung (35) die räumliche Aktivität unter Verwendung einer Standardabweichung der Signalverteilung einer Gruppe von Pixeln in einem Bereich auswertet, die einem bemerkten Pixel im ersten Videosignal benachbart sind, um den Aktivitätscode zu erzeugen.
  9. Signalumsetzungsgerät nach Anspruch 1, wobei die Auswertungseinrichtung (35, 36, 37) die räumliche Aktivität gemäß der Häufigkeitsverteilung von quantisierten Werten auswertet, welche auf der Basis des dynamischen Bereichs einer Gruppe von Pixeln in einem Bereich erhalten werden, die einem bemerkten Pixel im ersten Videosignal benachbart sind, um den Aktivitätscode zu erzeugen.
  10. Signalumsetzungsgerät nach Anspruch 1, wobei die Auswertungseinrichtung (35, 36, 37) die räumliche Aktivität gemäß der Häufigkeitsverteilung von Unterschieden von entsprechenden benachbarten Pixelwerten für jedes Pixel in einem Bereich auswertet, das einem bemerkten Pixel im ersten Videosignal benachbart ist, um den Aktivitätscode zu erzeugen.
  11. Signalumsetzungsgerät nach Anspruch 1, wobei die Auswertungseinrichtung die räumliche Aktivität auf der Basis von Laplace-Werten auswertet, welche in entsprechenden verschiedenen räumlichen Richtungen unter Verwendung von Laplace-Filtern erhalten werden, um einen Aktivitätscode zu erzeugen.
  12. Signalumsetzungsgerät nach Anspruch 5, wobei die Auswertungseinrichtung die räumliche Aktivität und die zeitliche Richtungsaktivität auf der Basis von Laplace-Werten auswertet, welche in verschiedenen räumlichen Richtungen und in verschiedenen zeitlichen Richtungen entsprechend unter Verwendung von Laplace-Filtern erhalten werden, um den Aktivitätscode zu erzeugen.
  13. Signalumsetzungsgerät nach Anspruch 1, wobei die Auswertungseinrichtung die räumliche Aktivität gemäß der Pegelverteilung von Pixeln in einem Bereich auswertet, die einem bemerkten Pixel im ersten Videosignal benachbart sind, um den Aktivitätscode zu erzeugen.
  14. Signalumsetzungsgerät nach Anspruch 1, wobei die Klassifizierungseinrichtung das erste Videosignal (S1) durch einen Prozess, der die Quantisierung des ersten Videosignals umfasst, gemäß dem Aktivitätscode (Co) klassifiziert.
  15. Signalumsetzungsgerät nach Anspruch 14, wobei die Klassifizierungseinrichtung ein Pixelmuster für einen weiten Bereich, ein Pixelmuster für einen engen Bereich im Vergleich zu dem weiten Bereich und ein Standardpixelmuster entsprechend zwischen dem weiten Bereich und dem engen Bereich für das erste Videosignal festlegt.
  16. Signalumsetzungsgerät nach Anspruch 1, wobei: die Auswertungseinrichtung (21) Pixel in einem Bereich quantisiert, welche einem bemerkten Pixel im ersten Videosignal benachbart sind und die räumliche Aktivität gemäß der Charakteristik einer Pegelverteilung für die quantisierten Werte auswertet, um den Aktivitätscode zu erzeugen; und die Klassifizierungseinrichtung ein adaptives Pixelmuster gemäß dem Aktivitätscode festlegt und eine vorher festgelegte Anzahl von Bits für jedes Pixel des Pixelmusters gemäß dem Aktivitätscode festlegt, um dieses zu quantisieren.
  17. Videosignal-Umsetzungsverfahren zum Umsetzen eines ersten Eingangsvideosignals (S1) in ein zweites Videosignal (S2), welches gegenüber dem ersten Videosignal verschieden ist, welches folgende Schritte aufweist: Auswerten der räumlichen Aktivität des ersten Videosignals, um einen Aktivitätscode (Co) zu erzeugen; Klassifizieren des ersten Videosignals auf der Basis des Aktivitätscodes und auf der Basis von Arten von Pixelmustern des ersten Videosignals, um einen Klassencode (C1) auf der Basis des Ergebnisses der Klassifizierung zu erzeugen; Lesen von Vorhersagekoeffizienten, welche in einem Vorhersagekoeffizientenspeicher gespeichert sind, zur Vorhersageerzeugung des zweiten Videosignals; und vorhersagendes Berechnen des zweiten Videosignals vom ersten Videosignal unter Verwendung der Vorhersagekoeffizienten, welche vom Vorhersagekoeffizientenspeicher gelesen werden, gemäß dem Aktivitätscode und dem Klassencode.
  18. Signalumsetzungsverfahren nach Anspruch 17, wobei das zweite Videosignal eine höhere Auslösung als das erste Videosignal hat.
  19. Signalumsetzungsverfahren nach Anspruch 17 oder 18, wobei das zweite Videosignal eine größere Anzahl von Pixeln als das erste Videosignal hat.
  20. Verfahren nach Anspruch 17, 18 oder 19, wobei der Auswertungsschritt außerdem eine zeitliche Richtungsaktivität des ersten Videosignals auswertet.
  21. Signalumsetzungsverfahren nach Anspruch 17, 18 oder 19, wobei der Klassifizierungsschritt mehrere unterschiedliche Pixelmuster des ersten Videosignals klassifiziert und ein Pixelmuster von dem Satz gemäß dem Aktivitätscode auswählt und den Klassencode in Abhängigkeit vom Aktivitätscode und dem ausgewählten Pixelmuster erzeugt.
  22. Signalumsetzungsverfahren nach Anspruch 17, 18 oder 19, wobei der Auswertungsschritt die räumliche Aktivität unter Verwendung eines dynamischen Bereichs einer Gruppe von Pixeln in einem Bereich auswertet, die einem bemerkten Pixel im ersten Videosignal benachbart sind, um den Aktivitätscode zu erzeugen.
  23. Signalumsetzungsverfahren nach Anspruch 17, 18 oder 19, wobei der Auswertungsschritt die räumliche Aktivität gemäß der Verteilung von Pegeln von quantisierten Werten auf der Basis des dynamischen Bereichs einer Gruppe von Pixeln in einem Bereich auswertet, die einem bemerkten Pixel im ersten Videosignal benachbart sind, um den Aktivitätscode zu erzeugen.
  24. Signalumsetzungsverfahren nach Anspruch 17, 18 oder 19, wobei der Auswertungsschritt die räumliche Aktivität unter Verwendung einer Standardabweichung der Signalverteilung einer Gruppe von Pixeln in einem Bereich auswertet, die einem bemerkten Pixel im ersten Videosignal benachbart sind, um den Aktivitätscode zu erzeugen.
  25. Signalumsetzungsverfahren nach Anspruch 17, 18 oder 19, wobei der Auswertungsschritt die räumliche Aktivität gemäß einer Häufigkeitsverteilung von quantisierten Werten auswertet, welche auf der Basis des dynamischen Bereichs einer Gruppe von Pixeln in einem Bereich erhalten werden, die einem bemerkten Pixel im ersten Videosignal benachbart sind, um den Aktivitätscode zu erzeugen.
  26. Signalumsetzungsverfahren nach Anspruch 17, 18 oder 19, wobei der Auswertungsschritt die räumliche Aktivität gemäß den Häufigkeitsverteilungen von Unterschieden von entsprechenden benachbarten Pixelwerten für jedes Pixel in einem Bereich auswertet, welches einem bemerkten Pixel im ersten Videosignal benachbart ist.
  27. Signalumsetzungsverfahren nach Anspruch 17, 18 oder 19, wobei der Auswertungsschritt die räumliche Aktivität auf der Basis eines Laplace-Wertes auswertet, der in entsprechenden unterschiedlichen räumlichen Richtungen erhalten wird, unter Verwendung von Laplace-Filtern, um den Aktivitätscode zu erzeugen.
  28. Signalumsetzungsverfahren nach Anspruch 20, wobei der Auswertungsschritt die räumliche Aktivität und die zeitliche Richtungsaktivität auf der Basis eines Laplace-Werts auswertet, der entsprechend in verschiedenen räumlichen Richtungen und in verschiedenen zeitlichen Richtungen unter Verwendung von Laplace-Filtern erhalten wird, um den Aktivitätscode zu erzeugen.
  29. Signalumsetzungsverfahren nach Anspruch 17, 18 oder 19, wobei der Auswertungsschritt die räumliche Aktivität gemäß der Pegelverteilung von Pixeln in einem Bereich auswertet, der einem bemerkten Pixel im ersten Videosignal benachbart ist, um den Aktivitätscode zu erzeugen.
  30. Signalumsetzungsverfahren nach einem der Ansprüche 17 bis 29, wobei der Klassifizierungsschritt das erste Videosignal durch einen Prozess klassifiziert, der das Quantisieren des ersten Videosignals gemäß dem Aktivitätscode umfasst.
  31. Signalumsetzungsverfahren nach Anspruch 30, wobei der Klassifizierungsschritt ein Pixelmuster für einen weiten Bereich, ein Pixelmuster für einen engen Bereich im Vergleich zum weiten Bereich und ein Standardpixelmuster entsprechend zwischen dem weiten Bereich und dem engen Bereich für das erste Videosignal festlegt.
  32. Signalumsetzungsverfahren nach Anspruch 17, wobei der Auswertungsschritt Pixel in einem Bereich quantisiert, die einem benachbarten Pixel im ersten Videosignal benachbart sind und die räumliche Aktivität gemäß der Charakteristik einer Pegelverteilung für den quantisierten Wert auswertet, um den Aktivitätscode zu erzeugen; und der Klassifizierungsschritt ein adaptives Pixelmuster gemäß dem Aktivitätscode festlegt und eine vorher festgelegte Anzahl von Bits für jedes Pixel des Pixelmusters gemäß dem Aktivitätscode festlegt, um dieses zu quantisieren.
  33. Verfahren nach einem der Ansprüche 17 bis 32, welches den Schritt aufweist, die Vorhersagekoeffizienten durch einen Lernprozess (SP1 bis SP8) zu erzeugen.
DE69633039T 1995-05-31 1996-05-30 Vorrichtung und Verfahren zur Umwandlung eines Signals Expired - Lifetime DE69633039T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP15861695 1995-05-31
JP15861695 1995-05-31

Publications (2)

Publication Number Publication Date
DE69633039D1 DE69633039D1 (de) 2004-09-09
DE69633039T2 true DE69633039T2 (de) 2005-08-11

Family

ID=15675610

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69633039T Expired - Lifetime DE69633039T2 (de) 1995-05-31 1996-05-30 Vorrichtung und Verfahren zur Umwandlung eines Signals

Country Status (4)

Country Link
US (1) US5852470A (de)
EP (1) EP0746157B1 (de)
KR (1) KR100465559B1 (de)
DE (1) DE69633039T2 (de)

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69736257T2 (de) * 1996-05-30 2007-06-28 Sony Corp. Schaltung und Verfahren zur Produktsummenberechnung
CN1097965C (zh) 1996-12-11 2003-01-01 索尼公司 信号转换装置和方法
US6115073A (en) * 1996-12-11 2000-09-05 Sony Corporation Signal converting apparatus and method using a class decision circuit
GB2322753B (en) * 1997-02-27 2001-05-09 Quantel Ltd A signal processing system
DE69838536T2 (de) * 1997-05-06 2008-07-24 Sony Corp. Bildwandler und bildwandlungsverfahhren
US6631216B2 (en) * 1997-07-31 2003-10-07 Canon Kabushiki Kaisha Image interpolation apparatus
JP3787823B2 (ja) 1997-07-31 2006-06-21 ソニー株式会社 画像処理装置および画像処理方法
US6282684B1 (en) 1997-10-23 2001-08-28 Sony Corporation Apparatus and method for recovery of data in a lossy transmission environment
US6581170B1 (en) 1997-10-23 2003-06-17 Sony Corporation Source coding to provide for robust error recovery during transmission losses
US6298085B1 (en) 1997-10-23 2001-10-02 Sony Corporation Source encoding using shuffling of data to provide robust error recovery in a burst error-environment
JP4093621B2 (ja) * 1997-12-25 2008-06-04 ソニー株式会社 画像変換装置および画像変換方法、並びに学習装置および学習方法
KR100287850B1 (ko) * 1997-12-31 2001-05-02 구자홍 디티브이의 디인터레이싱 장치 및 그 방법
KR100657776B1 (ko) * 1998-09-30 2006-12-15 소니 가부시끼 가이샤 연산 장치, 변환기, 및 이들의 방법
US6480632B2 (en) * 1998-12-03 2002-11-12 Intel Corporation Method and apparatus to interpolate video frames
US6151416A (en) * 1999-02-12 2000-11-21 Sony Corporation Method and apparatus for adaptive class tap selection according to multiple classification
US6591398B1 (en) 1999-02-12 2003-07-08 Sony Corporation Multiple processing system
US6170074B1 (en) 1999-02-12 2001-01-02 Sony Corporation Source coding to provide for robust error recovery
US6363118B1 (en) 1999-02-12 2002-03-26 Sony Corporation Apparatus and method for the recovery of compression constants in the encoded domain
US6154761A (en) * 1999-02-12 2000-11-28 Sony Corporation Classified adaptive multiple processing system
US6178266B1 (en) 1999-02-12 2001-01-23 Sony Corporation Method and apparatus for the recovery of compression constants in the encoded domain
US6621936B1 (en) 1999-02-12 2003-09-16 Sony Corporation Method and apparatus for spatial class reduction
US6418548B1 (en) * 1999-02-12 2002-07-09 Sony Corporation Method and apparatus for preprocessing for peripheral erroneous data
US6307979B1 (en) 1999-02-12 2001-10-23 Sony Corporation Classified adaptive error recovery method and apparatus
US6307560B1 (en) 1999-02-12 2001-10-23 Sony Corporation Classified adaptive spatio-temporal format conversion method and apparatus
US6535148B1 (en) 1999-02-12 2003-03-18 Sony Corporation Method and apparatus for truncated decoding
US6192161B1 (en) * 1999-02-12 2001-02-20 Sony Corporation Method and apparatus for adaptive filter tap selection according to a class
US7010737B2 (en) 1999-02-12 2006-03-07 Sony Corporation Method and apparatus for error data recovery
US6519369B1 (en) * 1999-02-12 2003-02-11 Sony Corporation Method and apparatus for filter tap expansion
WO2000049812A1 (en) * 1999-02-19 2000-08-24 Sony Corporation Image signal processor, image signal processing method, learning device, learning method, and recorded medium
US6697489B1 (en) 1999-03-30 2004-02-24 Sony Corporation Method and apparatus for securing control words
US7730300B2 (en) 1999-03-30 2010-06-01 Sony Corporation Method and apparatus for protecting the transfer of data
KR100730499B1 (ko) * 1999-04-23 2007-06-22 소니 가부시끼 가이샤 화상 변환 장치 및 방법
WO2000067480A1 (fr) * 1999-04-28 2000-11-09 Sony Corporation Dispositif et procede de conversion d'un signal d'image
US6493842B1 (en) 1999-06-29 2002-12-10 Sony Corporation Time-varying randomization for data synchronization and implicit information transmission
US6389562B1 (en) 1999-06-29 2002-05-14 Sony Corporation Source code shuffling to provide for robust error recovery
US6549672B1 (en) 1999-06-29 2003-04-15 Sony Corporation Method and apparatus for recovery of encoded data using central value
US6473876B1 (en) 1999-06-29 2002-10-29 Sony Corporation Method and apparatus for encoding of bitstreams using rotation
US6522785B1 (en) 1999-09-24 2003-02-18 Sony Corporation Classified adaptive error recovery method and apparatus
US6351494B1 (en) 1999-09-24 2002-02-26 Sony Corporation Classified adaptive error recovery method and apparatus
US6539517B1 (en) 1999-11-09 2003-03-25 Sony Corporation Data transformation for explicit transmission of control information
US7039614B1 (en) 1999-11-09 2006-05-02 Sony Corporation Method for simulcrypting scrambled data to a plurality of conditional access devices
US6754371B1 (en) 1999-12-07 2004-06-22 Sony Corporation Method and apparatus for past and future motion classification
US6862368B1 (en) 2000-01-12 2005-03-01 Koninklijke Philips Electronics N.V. Method and apparatus for edge detection
US6657677B1 (en) 2000-01-12 2003-12-02 Koninklijke Philips Electronics N.V. Method and apparatus for improving conversion from SD to HDTV
US6687388B2 (en) 2000-01-28 2004-02-03 Sony Corporation Picture processing apparatus
EP1124384A1 (de) * 2000-02-10 2001-08-16 Sony Corporation Informationsverarbeitungssystem mit adaptivem Klassifizierer für komprimierte Bilddaten
DE60127631T2 (de) * 2000-02-10 2007-12-13 Sony Corp. Anordnung und verfahren zur bildverarbeitung und aufzeichnungsträger
WO2001076232A1 (en) * 2000-03-30 2001-10-11 Sony Corporation Information processor
JP2001318745A (ja) * 2000-05-11 2001-11-16 Sony Corp データ処理装置およびデータ処理方法、並びに記録媒体
JP3576936B2 (ja) * 2000-07-21 2004-10-13 株式会社ケンウッド 周波数補間装置、周波数補間方法及び記録媒体
KR100780516B1 (ko) * 2000-08-07 2007-11-29 소니 가부시끼 가이샤 화상 처리 장치 및 방법, 및 기록 매체
JP4670169B2 (ja) * 2000-11-15 2011-04-13 ソニー株式会社 情報信号処理装置、情報信号処理方法、画像信号処理装置およびそれを使用した画像表示装置、それに使用される係数種データ生成装置、並びに情報記録媒体
US6519368B1 (en) 2000-11-28 2003-02-11 Sony Corporation Resolution enhancement by nearest neighbor classified filtering
US7895616B2 (en) 2001-06-06 2011-02-22 Sony Corporation Reconstitution of program streams split across multiple packet identifiers
US7139398B2 (en) 2001-06-06 2006-11-21 Sony Corporation Time division partial encryption
US7747853B2 (en) 2001-06-06 2010-06-29 Sony Corporation IP delivery of secure digital content
US7324709B1 (en) * 2001-07-13 2008-01-29 Pixelworks, Inc. Method and apparatus for two-dimensional image scaling
US7171059B1 (en) * 2002-05-23 2007-01-30 Pixelworks, Inc. Method and apparatus for two-dimensional image scaling
US7142729B2 (en) * 2001-09-10 2006-11-28 Jaldi Semiconductor Corp. System and method of scaling images using adaptive nearest neighbor
GB2389294B (en) * 2001-11-21 2005-08-17 Sony Electronics Inc Resolution enhancement by nearest neighbor classified filtering
US7123780B2 (en) * 2001-12-11 2006-10-17 Sony Corporation Resolution enhancement for images stored in a database
US7039938B2 (en) 2002-01-02 2006-05-02 Sony Corporation Selective encryption for video on demand
US7823174B2 (en) 2002-01-02 2010-10-26 Sony Corporation Macro-block based content replacement by PID mapping
US7765567B2 (en) 2002-01-02 2010-07-27 Sony Corporation Content replacement by PID mapping
US7010794B2 (en) * 2002-01-23 2006-03-07 Microsoft Corporation Methods and systems for predicting events associated with renderable media content samples
US7149369B2 (en) * 2002-04-23 2006-12-12 Hewlett-Packard Development Company, L.P. Method and system for image scaling
JP3777599B2 (ja) * 2002-04-23 2006-05-24 ソニー株式会社 画像情報変換装置および方法、係数算出装置および方法、係数データおよび係数データ記憶装置、画質劣化箇所検出装置および方法、記録媒体、並びにプログラム
JP3947969B2 (ja) * 2002-05-15 2007-07-25 ソニー株式会社 画像処理装置、および画像処理方法、記録媒体、並びにプログラム
JP4006628B2 (ja) * 2002-07-03 2007-11-14 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びにプログラム
US8818896B2 (en) 2002-09-09 2014-08-26 Sony Corporation Selective encryption with coverage encryption
JP4055203B2 (ja) * 2002-09-12 2008-03-05 ソニー株式会社 データ処理装置およびデータ処理方法、記録媒体、並びにプログラム
US7724907B2 (en) 2002-11-05 2010-05-25 Sony Corporation Mechanism for protecting the transfer of digital content
US8572408B2 (en) 2002-11-05 2013-10-29 Sony Corporation Digital rights management of a digital device
US8667525B2 (en) 2002-12-13 2014-03-04 Sony Corporation Targeted advertisement selection from a digital stream
US8645988B2 (en) 2002-12-13 2014-02-04 Sony Corporation Content personalization for digital content
KR100505663B1 (ko) * 2003-01-02 2005-08-03 삼성전자주식회사 적응형 윤곽 상관 보간에 의한 디스플레이 장치의 순차주사 방법
DE10327083A1 (de) * 2003-02-11 2004-08-19 Giesecke & Devrient Gmbh Sicherheitspapier und Verfahren zur Herstellung desselben
JP4265237B2 (ja) * 2003-02-27 2009-05-20 ソニー株式会社 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム
JP4253522B2 (ja) * 2003-03-28 2009-04-15 株式会社日立ハイテクノロジーズ 欠陥分類方法及び装置
US7627198B2 (en) * 2003-05-29 2009-12-01 Sony Corporation Information signal processing device and processing method, codebook generating device and generating method, and program for executing the methods
JP4265291B2 (ja) 2003-06-06 2009-05-20 ソニー株式会社 情報信号の処理装置および処理方法、並びに情報信号の処理方法を実行するためのプログラム
JP4281453B2 (ja) * 2003-07-31 2009-06-17 ソニー株式会社 信号処理装置および信号処理方法
US7853980B2 (en) 2003-10-31 2010-12-14 Sony Corporation Bi-directional indices for trick mode video-on-demand
EP1534018B1 (de) * 2003-11-21 2008-11-12 Samsung Electronics Co., Ltd. Vorrichtung und Methode zur Erzeugung von kodierten Blockanordnungen für ein Alpha-Kanalbild sowie Alpha-Kanalkodierungs und -dekodierungsvorrichtung und -methode.
KR100519776B1 (ko) * 2003-11-24 2005-10-07 삼성전자주식회사 영상 신호의 해상도 변환 방법 및 장치
KR100648308B1 (ko) * 2004-08-12 2006-11-23 삼성전자주식회사 해상도 변환방법 및 장치
KR20070068409A (ko) * 2004-09-24 2007-06-29 코닌클리케 필립스 일렉트로닉스 엔.브이. 이미지 보간
JP2006115078A (ja) * 2004-10-13 2006-04-27 Matsushita Electric Ind Co Ltd 画像データの信号処理装置及びその方法
US7895617B2 (en) 2004-12-15 2011-02-22 Sony Corporation Content substitution editor
US8041190B2 (en) 2004-12-15 2011-10-18 Sony Corporation System and method for the creation, synchronization and delivery of alternate content
US7706635B2 (en) * 2005-10-20 2010-04-27 Marvell International Technology Ltd. Methods and systems for image scaling
US8185921B2 (en) 2006-02-28 2012-05-22 Sony Corporation Parental control of displayed content using closed captioning
US8126277B2 (en) * 2007-02-28 2012-02-28 Sanyo Electric Co., Ltd. Image processing method, image processing apparatus and image pickup apparatus using the same
JP5347862B2 (ja) * 2008-09-29 2013-11-20 ソニー株式会社 係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
JP5476879B2 (ja) * 2008-09-29 2014-04-23 ソニー株式会社 画像処理装置および係数学習装置。
KR101106613B1 (ko) 2010-03-24 2012-01-20 전자부품연구원 에지 프로파일을 이용한 영상의 해상도 변환 장치 및 방법
TWI422233B (zh) * 2010-04-16 2014-01-01 Silicon Motion Inc 用來對縮減取樣拜耳影像進行色彩內插之方法及相關裝置
GB2492039B (en) * 2010-05-11 2016-01-06 Zoran France Two dimensional super resolution scaling
JP2014106289A (ja) * 2012-11-26 2014-06-09 Sony Corp 表示装置、電子機器及び表示装置の駆動方法
GB2534790B (en) 2013-12-03 2020-06-03 Mitsubishi Electric Corp Image processing apparatus and image processing method
US11122262B2 (en) * 2014-06-27 2021-09-14 Samsung Electronics Co., Ltd. System and method for motion compensation in video coding

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2623040B1 (fr) * 1987-11-09 1990-02-09 France Etat Procede et dispositif de traitement de signaux d'image a balayage de trame entrelace
JP3438233B2 (ja) * 1992-05-22 2003-08-18 ソニー株式会社 画像変換装置および方法
JP2611607B2 (ja) * 1992-06-29 1997-05-21 日本ビクター株式会社 シーンチェンジ検出装置
KR100360206B1 (ko) * 1992-12-10 2003-02-11 소니 가부시끼 가이샤 화상신호변환장치
DE69329332T2 (de) * 1993-05-26 2001-02-22 St Microelectronics Srl Fernsehbilderdekodierarchitektur zur Ausführung eines 40 ms-Prozessalgorithmus in HDTV
US5406334A (en) * 1993-08-30 1995-04-11 Sony Corporation Apparatus and method for producing a zoomed image signal
US5546130A (en) * 1993-10-11 1996-08-13 Thomson Consumer Electronics S.A. Method and apparatus for forming a video signal using motion estimation and signal paths with different interpolation processing
JP3271108B2 (ja) * 1993-12-03 2002-04-02 ソニー株式会社 ディジタル画像信号の処理装置および方法

Also Published As

Publication number Publication date
KR100465559B1 (ko) 2005-04-19
EP0746157A3 (de) 1999-02-03
EP0746157B1 (de) 2004-08-04
EP0746157A2 (de) 1996-12-04
US5852470A (en) 1998-12-22
KR960042681A (ko) 1996-12-21
DE69633039D1 (de) 2004-09-09

Similar Documents

Publication Publication Date Title
DE69633039T2 (de) Vorrichtung und Verfahren zur Umwandlung eines Signals
DE69233167T2 (de) Prädiktives Videokodierungssystem
DE69333103T2 (de) Vorrichtung zur Umsetzung von digitalen Daten
EP0259562B1 (de) Verfahren zur bewegungskompensierten Bild-zu-Bild-Prädiktionscodierung
DE69825196T2 (de) Bildverarbeitungsverfahren und -vorrichtung
DE69735390T2 (de) Bildkodierung und -dekodierung unter Verwendung von Abbildungskoeffizienten, die gewissen Pixelblockklasseninformation entsprechen
EP0309669B1 (de) Verfahren zur szenenmodellgestützten Bilddatenreduktion für digitale Fernsehsignale
DE3021033C2 (de) Verfahren zur bewegungskompensierten Zwischen-Halbbild-Kodierung
DE69628467T2 (de) Videokodierung- und dekodierungsvorrichtung
DE69637223T2 (de) Verfahren zur adaptiver Komprimierung von digitalen Restbilddaten in einem DPCM-Kompressionssystem
DE69838630T2 (de) Prädiktive Digitalvideosignalkodierung- und Dekodierungsmethode unter Verwendung von Blockinterpolation
DE69735028T2 (de) Videokodierungs- und Videodekodierungsvorrichtung
EP0517324B1 (de) Vorrichtung zur Steuerung des Quantisierers eines Hybridkodierers
DE3202913A1 (de) Verfahren und vorrichtung zur verarbeitung eines grauwertkomponenten enthaltenden faksimilesignals
DE69736257T2 (de) Schaltung und Verfahren zur Produktsummenberechnung
DE4442643B4 (de) Verfahren zum Abschätzen der Bewegung in einem Bewegtbild
DE69816949T2 (de) Verfahren zur Kodierung/Dekodierung von Bildern
DE3247334C2 (de) Verfahren zum Kodieren eines n-stufig graduierten Bildelementes
DE69719740T2 (de) Vorrichtung und verfahren zur bildsignalkodierung und -dekodierung sowie aufzeichnungsmedium
DE69722126T2 (de) Verfahren zur Halbtonrasterungsumsetzung der Grauwertsignale der Bildelemente eines Bildes und Bildwiedergabegerät
DE69723325T2 (de) Verfahren und Vorrichtung zur Codierung und Decodierung von Bildern
EP0897247A2 (de) Verfahren zur Berechnung von Bewegungsvektoren
DE69915857T2 (de) Videosignalverarbeitung
EP0414016B1 (de) Verfahren zur Bildung eines Prädiktionsbildes
DE3810916A1 (de) Delta-pulscodemodulation

Legal Events

Date Code Title Description
8364 No opposition during term of opposition