DE69819613T2 - Videorastererfassung und Vorschau - Google Patents

Videorastererfassung und Vorschau Download PDF

Info

Publication number
DE69819613T2
DE69819613T2 DE69819613T DE69819613T DE69819613T2 DE 69819613 T2 DE69819613 T2 DE 69819613T2 DE 69819613 T DE69819613 T DE 69819613T DE 69819613 T DE69819613 T DE 69819613T DE 69819613 T2 DE69819613 T2 DE 69819613T2
Authority
DE
Germany
Prior art keywords
video
video data
data
raw digitized
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69819613T
Other languages
English (en)
Other versions
DE69819613D1 (de
Inventor
David S. Taubman
Andrew J. Sunnyvale Patti
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Co filed Critical Hewlett Packard Co
Publication of DE69819613D1 publication Critical patent/DE69819613D1/de
Application granted granted Critical
Publication of DE69819613T2 publication Critical patent/DE69819613T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00283Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus
    • H04N1/00291Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus with receiver circuitry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00283Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus
    • H04N1/00291Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus with receiver circuitry
    • H04N1/00294Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus with receiver circuitry for printing images at a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0065Converting image data to a format usable by the connected apparatus or vice versa
    • H04N2201/0067Converting to still picture data

Description

  • Die Erfindung bezieht sich allgemein auf das Erfassen und Betrachten von Videodaten. Insbesondere bezieht sich die Erfindung auf das Erfassen und Betrachten von Standbildern von analogen Videodaten in einem Videodrucksystem.
  • Videodaten werden üblicherweise in einem von zwei Formaten geliefert, Zusammensetzungsvideo oder S-Video. Zusammengesetztes Video ist ein Videosignal, bei dem die Luminanz(Helligkeit), Chrominanz-(Farbe), vertikale Austast-Informationen, horizontale Synchronisations-Informationen und Farbburst-Informationen auf einem einzelnen Kanal gemäß einem bestimmten Codierungsstandard präsentiert werden. S-Video oder getrenntes Video (separated video) ist ein Videoliefersystem höherer Qualität, bei dem die Luminanz-, die vertikalen Austast-Informationen und die horizontalen Synchronisations-Informationen auf einem Kanal getragen werden und die Chrominanz- und Farbburst-Informationen auf einem anderen Kanal getragen werden. Die unterschiedlichen Codierungsstandards für zusammengesetztes Video und S-Video umfassen die Standards des National Television Standards Committee (NTSC), das Phase Alternate Line System (PAL-System) und den Standard Sequential Couleur A'manorie (SECAM).
  • Gemäß NTSC-Standards enthält ein Rahmen aus Videodaten zwei Felder aus Videodaten. Ein Rahmen aus Videodaten weist 525 horizontale Informationszeilen auf, wobei jedes der zwei Felder 262,5 horizontale Informationszeilen aufweist. Die horizontalen Informationszeilen werden auf einen Monitor abgetastet, wie z. B. ein Televisionsset, mit einer Rate von 30 Rahmen pro Sekunde.
  • Die bekannte Technik der Video-Erfassung und -Vorbetrachtung erfordert, daß Videodaten mehrere Verarbeitungsschritte während der Erfassung und der Vorbetrachtung durchlau fen. Der erste Schritt bei der Video-Erfassung und -Vorbetrachtung ist die Umwandlung eines analogen Videosignals in rohe digitalisierte Videoabtastwerte und dann die Umwandlung von rohen digitalisierten Videoabtastwerten in digitale Bilddaten. Rohe digitalisierte Videoabtastwerte bestehen aus digitalisierten Werten des analogen Signals. Digitale Bilddaten bestehen aus Daten, die in Farbpixelwerte decodiert wurden.
  • Nachdem das analoge Videosignal in digitale Bilddaten umgewandelt wurde, werden die digitalen Bilddaten entweder sofort übertragen, für eine Vorbetrachtung, oder in dem Speicher gespeichert, bis sie für eine Vorbetrachtung aufgerufen werden. Digitale Bilddaten, die zum Vorbetrachten ausgewählt werden, werden von den digitalen Bilddaten zurück in analoge Videodaten umgewandelt und dann auf einem Monitor angezeigt. Bestehende Video-Erfassungs- und Anzeige-Vorrichtungen erreichen die Umwandlung und Rückumwandlung von analogen Videodaten und digitalen Bilddaten mit der Hilfe von Allzweck-Video-Decodierungs- und Codierungs-Chipsätzen. Die Chipsätze führen die notwendigen Zeitgebungswiedergewinnungs-, Luminanz/Chrominanz-Trennungs-, und Chrominanz-Demodulations-Aufgaben in Echtzeit durch.
  • Video-Erfassungs- und -Vorbetrachtungs-Techniken werden häufig an Videodrucken angewendet. Videodrucken ist eine Technik, durch die ein Standbild aus einem Bewegungsvideo gedruckt wird, wie z. B. einem VHS-Band. Beim Videodrucken wird ein Video durch einen Benutzer betrachtet. Sobald ein Bild von Interesse identifiziert wird, wird ein Standvideobild zur Vorbetrachtung auf einem Monitor erzeugt. Das Erzeugen des Standvideobildes umfaßt das Umwandeln entsprechender digitaler Bilddaten in ein analoges Videosignal. Der Benutzer betrachtet dann das Standvideobild vorab und leitet an, das Bild zu drucken, wenn das Bild erwünscht ist. Sobald es ausgewählt ist, werden die digitalen Bilddaten, die dem Standvideobild entsprechen, zu einem Drucker zum Drucken übertragen.
  • Die bekannte Technik des Videodruckens ist offenbart in dem U.S.-Patent Nr. 5,045,951 an Kimura u. a. und dem U.S.-Patent Nr. 4,998,215 an Black u. a. In Kimura u. a. sind ein Videosignalverarbeiter und ein Videosignalverarbeitungsverfahren für einen Videodrucker offenbart. Grundlegend für dieses System ist eine anfängliche Analog-zu-Digital-Umwandlung des ursprünglichen analogen Videosignals. Die digitalen Daten, die aus dem Analog-zu-Digital-Wandler gemäß Kimura u. a. ausgegeben werden, sind Pixeldaten. Wie oben erwähnt wurde, sind Pixeldaten Daten, die in einem Format vorliegen, das Computer als Bilddaten erkennen. Das heißt, keine zusätzliche Umwandlung der Pixeldaten ist vor dem Drucken nötig. Um aber das Bild vorzubetrachten, das zum Drucken ausgewählt wurde, müssen die Pixeldaten wieder in ein analoges Signal rückumgewandelt werden, das auf einem Monitor angezeigt werden kann. Die Rückumwandlung erfordert zusätzliche Hardware und Verarbeitung.
  • Bei Black u. a. sind ein Verfahren und eine Vorrichtung zum Umwandeln von Videoinformationen zum Drucken durch einen Standarddrucker offenbart. Der erste Prozeß bei der Erfindung ist eine Analog-zu-Digital-Umwandlung. Der Analog-zu-Digital-Umwandler wandelt ein analoges Videosignal in Anzeigepunkte oder Pixeldaten um. Die Pixeldaten liegen in einem Standardgraphikformat vor, das mit einem Standarddrucker kompatibel ist. Wenn aber ein Benutzer das Standbild vorbetrachten möchte, bevor es gedruckt wird, müssen die Pixeldaten zuerst zurück in ein analoges Videosignal umgewandelt werden, das mit einem Videomonitor kompatibel ist.
  • Die EP-A-0,105,642 offenbart ein Bildspeicherungssystem, bei dem Videoinformationen aus abgetasteten Abschnitten auf dem Band eines Videobandaufzeichnungsgeräts gespeichert werden, nach dem Verarbeiten und Formatieren, über einen Schalter. Videoinformationen, die auf dem Band des VTR (video tage recorder) gespeichert sind, können in den Speicher eines Separationsvorbetrachters eingegeben werden, nach dem Decodieren und Verarbeiten über einen Schalter. Eine Steuerung steuert die Operation der Schalter, die die Informationen und den VTR leiten. Eine Tastatur, ein Steuerungsbedienfeld und ein Drucker bilden eine Schnittstelle mit der Steuerung.
  • Während die bekannten Techniken zur Video-Erfassung und – Vorbetrachtung für ihre beabsichtigten Zwecke gut funktionieren, liegen Einschränkungen vor. Zum Beispiel kann die Umwandlung von analogen Videodaten in digitale Videodaten und zurück in analoge Videodaten zum Vorbetrachten den Verlust von Bildqualität verursachen. Ferner müssen 100 der digitalen Bilddaten in dem Speicher für ein potentielles Vorbetrachten oder Drucken gespeichert sein. Die Speicherungsanforderungen können die Speicherungskapazität schnell überlasten. Zusätzlich dazu weisen die Chipsätze, die erforderlich sind, um Analog-zu-Digital- und Digitalzu-Analog-Umwandlungen auszuführen, relativ hohe Kosten auf.
  • Die vorliegende Erfindung schafft eine verbesserte Vorbetrachtung von Videodaten.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird ein Verfahren zum Vorbetrachten von Videodaten gemäß Anspruch 1 geschaffen.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung wird ein System zum Vorbetrachten von Standbildern von Videodaten gemäß Anspruch 8 geschaffen.
  • Das bevorzugte Ausführungsbeispiel schafft ein Verfahren und ein System zum Vorbetrachten eines Standvideobildes, ohne zuerst ein analoges Videosignal in digitale Bilddaten umwandeln zu müssen und dann die digitalen Bilddaten zurück in ein analoges Videosignal umwandeln zu müssen, das das gewünschte Standvideobild darstellt. Zusätzlich dazu kann es Videosignale speichern, so daß Speicherraum effektiv genutzt wird, während die Datenintegrität intakt gehalten wird.
  • Bei dem bevorzugten Ausführungsbeispiel wird ein analoges Videosignal aus einer analogen Videosignalquelle erzeugt, wie z. B. einem Videokassettenspieler. Das analoge Videosignal wird kontinuierlich durch einen Eingang empfangen, der mit einem ersten Wandler verbunden ist. Der Wandler wandelt das analoge Videosignal in rohe digitalisierte Videodaten um, anstatt das analoge Videosignal in vollständig decodierte digitale Bilddaten umzuwandeln. Die rohen digitalisierten Videodaten werden in einem Speicher gespeichert, bis das Bild für eine Vorbetrachtung ausgewählt wird. Um ein Bild für eine Vorbetrachtung auszuwählen, wird das analoge Videosignal zu einem Anzeigemonitor gleichzeitig mit der Umwandlung der analogen Videodaten in rohe digitalisierte Videodaten geliefert. Ein Benutzer, der den Anzeigemonitor betrachtet, wählt ein Bild des Videos aus, das der Benutzer als ein Standvideobild betrachten möchte. Die rohen digitalisierten Videodaten, die dem gewünschten Standvideobild entsprechen, werden dann von rohen digitalisierten Videodaten in ein analoges Videosignal zurück umgewandelt. Das Standvideobild kann auf einer Feld-für-Feld-Basis oder einer Rahmen-für-Rahmen-Basis betrachtet werden. Um das Standvideobild zu erzeugen, werden die rohen digitalisierten Videodaten durch einen zweiten Wandler verarbeitet. Die Rückumwandlung von rohen digitalisierten Videodaten in ein analoges Videosignal, das ein Standvideobild darstellt, erfordert eine gewisse Manipulation. Genauer gesagt wird die Phase des Farbteilträgerfrequenzabschnitts des analogen Videosignals angepaßt, um den Phasenvorschub zu berücksichtigen, der in dem Originalsignal auftritt. Sobald das analoge Videosignal erzeugt ist, wird das analoge Videosignal übermittelt und als ein Standvideobild auf einem Anzeigemonitor angezeigt.
  • Somit schafft das bevorzugte Ausführungsbeispiel ein Videodrucksystem, das folgende Merkmale aufweist: einen ersten Wandler, der angeschlossen ist, um ein eingehendes analoges Videosignal zum Umwandeln des eingehenden analogen Signals in rohe digitalisierte Videodaten empfängt, wobei das eingehende analoge Signal Phasendaten umfaßt, die notwendig für ein Videodatenvorbetrachten sind; einen Speicherungsselektor, der mit dem ersten Wandler zum Identifizieren notwendiger Abschnitte und nicht notwendiger Abschnitte der rohen digitalisierten Videodaten, und zum Verwerfen der unnötigen Abschnitte der rohen digitalisierten Videodaten verbunden ist, wobei die notwendigen Abschnitte der rohen digitalisierten Daten Bildinformationen und nichtsynthetisierbare Zeitgebungsinformationen enthalten und die unnötigen Abschnitte der rohen digitalisierten Daten synthetisierbare Zeitgebungsinformationen enthalten; einen Speicher, der mit dem Speicherungsselektor zum Speichern der identifizierten notwendigen Abschnitte der rohen digitalisierten Videodaten verbunden ist; einen Signalrekonstruierer, der mit dem Speicher zum Synthetisieren der verworfenen unnötigen Abschnitte der rohen digitalisierten Videodaten und zum Rekonstruieren der rohen digitalisierten Videodaten aus den notwendigen Abschnitten der rohen digitalisierten Videodaten und aus den synthetisierten Abschnitten der unnötigen rohen digitalisierten Videodaten verbunden ist; einen zweiten Wandler, der mit dem Signalrekonstruierer verbunden ist, zum Umwandeln der rekonstruierten rohen digitalisierten Videodaten in ein ausgehendes analoges Videosignal und zum Anpassen der Phasendaten, um einen Phasenvorschub zu berücksichtigen; einen Monitor, der mit dem zweiten Wandler zum Anzeigen des ausgehenden analogen Videosignals verbunden ist; einen Softwaredecodierer, der mit dem Speicher zum Decodieren der identifizierten notwendigen Abschnitte der rohen digitalisierten Videodaten in digitale Bilddaten verbunden ist; und einen Drucker, der mit dem Softwaredecodierer verbunden ist, zum Erzeugen eines gedruckten Bildes, das die decodierten digitalen Bilddaten darstellt.
  • Es bestehen viele Vorteile bei dem bevorzugten Lösungsansatz gegenüber dem herkömmlichen Lösungsansatz zum Verwenden von Allzweck-Video-Decodierungs- und -Codierungs-Chipsätzen zum sofortigen Umwandeln eines eingehenden analogen Videosignals in digitalisierte Bilddaten. Ein Vorteil ist, daß der bevorzugte Lösungsansatz die Verwendung der Allzweck-Video-Decodierungs- und -Codierungs-Chipsätze nicht erfordert. Die Chipsätze fügen zusätzliche Kosten zu einem analogen Videoerfassungs- und Vorbetrachtungs-System hinzu. Ein anderer Vorteil ist, daß es der bevorzugte Lösungsansatz dem Benutzer ermöglicht, so viel Kenntnisse über die ursprünglichen Videodaten zu halten wie möglich, durch Speichern der rohen digitalisierten Videodaten in dem Speicher. Zusätzlich dazu ermöglicht der Zugriff auf rohe digitalisierte Videodaten ein vortschrittliches Decodieren und ein verbessertes Verarbeiten.
  • Ein weiteres Ausführungsbeispiel der Erfindung ermöglicht die selektive Speicherung von rohen digitalisierten Videodaten, die aus einem analogen Videosignal erzeugt werden. Der selektive Speicherungslösungsansatz unterscheidet sich für zusammengesetztes Video und S-Video, wobei zusammengesetztes Video aus einem Basisbandsignal einer relativ hohen Bandbreite und einem Schmalbandsignal zentriert an der Farbteilträgerfrequenz (FSC) besteht. Zum Umwandeln des analogen Zusammensetzungsvideosignals in rohe digitalisierte Videodaten wird das analoge Zusammensetzungsvideosignal üblicherweise bei einer Rate von viermal der Farbteilträgerfrequenz abgetastet. Der große Betrag von Abtastdaten, die die vertikalen Austastinformationen, die horizontalen Synchronisierungsinformationen, die horizontalen Austastinformationen und die Farbburstinformationen des analogen Videosignals reflektieren, wird erzeugt. Ein Großteil der Abtastwerte, die die vertikalen Austast-, die horizontalen Austast-, die horizontalen Synchronisierungs- und die Farbburst-Informationen darstellen, müssen nicht gespeichert werden. Die Abtastwerte können später auf einer Bedarfsbasis verworfen und synthetisiert werden. Bei einem Zusammensetzungsvideosignal können ungefähr 20% der rohen digitalisierten Videoabtastwerte verworfen werden.
  • Bei einem S-Video ist der selektive Speicherungslösungsansatz ähnlich, außer daß die Bestimmung, welche Abtastwerte gespeichert werden müssen und welche Abtastwerte verworfen werden können, komplizierter ist. Bei dem S-Video liegen zwei Kanäle von rohen digitalisierten Videoabtastwerten vor. Ein Kanal ist für das Y-Signal und enthält alle Luminanz- und horizontalen Synchronisierungs- und vertikalen und horizontalen Austast-Informationen. Der andere Kanal ist für das C-Signal und enthält die Farbburst- und modulierten Chrominanz-Informationen. Beide Signale werden bei viermal der Teilträgerfrequenzabtastrate (4 FSC) abgetastet. Die Y-Kanal-Abtastwerte werden selektiv auf dieselbe Weise gespeichert, wie oben für ein Zusammensetzungsvideosignal beschrieben ist. Der C-Kanal enthält andererseits viel mehr redundante Informationen, primär weil die modulierten Chrominanz- und Farbburst-Informationen nur einen schmalen Abschnitt des Frequenzspektrums einnehmen, der um die Teilträgerfrequenz zentriert ist. Somit müssen nicht mehr als eine von vier der anfänglichen Sequenzen der Chrominanzabtastwerte gehalten werden. Zusätzlich dazu werden die Abtastwerte auf eine nicht einheitliche Weise gehalten. Die Abtastwertverwerfungsstrategie für S-Video kann Speicherspeicherungsanforderungen um bis zu 47% reduzieren.
  • Das bevorzugte Ausführungsbeispiel ist in einem Videodrucksystem implementiert. Ein Videodrucksystem umfaßt eine Umwandlungs- und Speicherungs-Vorrichtung, eine Vorbetrachtungsüberwachungsvorrichtung, einen Softwaredecodierer und eine Druckvorrichtung. Die Umwandlungsvorrichtung wandelt das analoge Videosignal in rohe digitalisierte Videodaten um. Ausgewählte Teile der rohen digitalisierten Videodaten werden dann in dem Speicher gespeichert. Rohe digitalisierte Videodaten, die einem gewünschten Standvideobild entsprechen, werden dann in analoge Standvideobilddaten zum vorbetrachten auf einem Vorbetrachtungsmonitor umgewandelt. Sobald ein zufriedenstellendes Standvideobild zum Drucken identifiziert wurde, verwendet der Softwaredecodierer Softwarealgorithmen, um die entsprechenden rohen digitalisierten Videodaten in digitale Bilddaten umzuwandeln, die durch eine Druckvorrichtung erkannt werden können. Die Druckvorrichtung verwendet dann die digitalen Bilddaten, um ein Standbild zu drucken.
  • Ein Ausführungsbeispiel der vorliegenden Erfindung wird nachfolgend ausschließlich beispielhaft beschrieben, Bezug nehmend auf die beiliegenden Zeichnungen, in denen:
  • 1 ein Schema eines bevorzugten Ausführungsbeispiels des Video-Erfassungs- und -Vorbetrachtungs-Systems ist.
  • 2 ein Funktionsblockdiagramm des Video-Erfassungsund -Vorbetrachtungs-Systems aus 1 ist.
  • 3 ein Schema eines Ausführungsbeispiels eines Video-Erfassungs- und -Vorbetrachtungs-Systems mit selektiver Speicherungsfähigkeit ist.
  • 4 ein Schema des Abtastmusters für die aktive Region eines Chromfinanz-(C-) Kanals einer S-Videoquelle ist.
  • 5 ein Schema eines Ausführungsbeispiels eines Zusammensetzungsvideo- und eines S-Video-Erfassungs- und -Vorbetrachtungs-Systems mit selektiver Speicherungsfähigkeit ist.
  • 6 ein Schema eines Videodrucksystems ist, das das Video-Erfassungs- und -Vorbetrachtungs-System und die selektive Speicherung aus 5 einlagert.
  • Bei dem bevorzugten Ausführungsbeispiel wird Bezug nehmend auf 1 und 2 ein analoges Videosignal aus einer analogen Videosignalquelle 14 erzeugt, wie z. B. einem Videokassettenspieler. Das analoge Videosignal wird stetig durch einen Eingang 16 empfangen, der mit einem ersten Wandler 18 verbunden ist. Der Wandler wandelt 50 das eingehende analoge Videosignal in eine Reihe von rohen digitalisierten Videodaten um, anstatt das analoge Videosignal in vollständig decodierte digitale Bilddaten umzuwandeln.
  • Rohe digitalisierte Videodaten sind einfach eine digitale Version eines analogen Videosignals. Das heißt, die rohen digitalisierten Daten bestehen aus einzelnen Abtastwerten, die in Intervallen genommen werden, die kurz genug sind im Vergleich zu der Frequenz des abgetasteten analogen Signals, um eine genaue Darstellung des abgetasteten analogen Signals zu erzeugen. Die rohen digitalisierten Videodaten werden ferner decodiert, um digitale Bilddaten zu erzeugen, die vollständige Pixeldaten enthalten.
  • Die rohen digitalisierten Videodaten werden in einem Speicher 22 gespeichert 52, bis das entsprechende Bild für eine Vorbetrachtung ausgewählt ist. Um ein Bild für eine Vorbetrachtung auszuwählen, wird das analoge Videosignal zu einem Anzeigemonitor 30 geliefert, gleichzeitig zu der Umwandlung der analogen Videodaten in rohe digitalisierte Videodaten. Ein Benutzer, der den Anzeigemonitor betrachtet, wählt 54 ein Bild des Videos aus, das der Benutzer als ein Standvideobild betrachten möchte. Die rohen digitalisierten Videodaten, die dem gewünschten Standvideobild entsprechen, werden dann zurück von den rohen digitalisierten Videodaten in ein analoges Videosignal umgewandelt 56. Das analoge Signal wird dann zu dem Anzeigemonitor geliefert 58 und das gewünschte Standvideobild wird zum Vorbetrachten auf dem Monitor angezeigt. Das Standvideobild kann auf einer Feld-für-Feld-Basis oder einer Rahmen-für-Rahmen-Basis betrachtet werden.
  • Um ein Standvideobild auf einer Feld-für-Feld-Basis oder einer Rahmen-für-Rahmen-Basis zu erzeugen, werden die digitalisierten Videodaten zuerst durch einen zweiten Wandler 26 verarbeitet. Die Rückumwandlung von den rohen digitalisierten Videodaten in ein analoges Videosignal, das ein Standbild darstellt, muß die Tatsache berücksichtigen, daß NTSC- und PAL-Codierung sich leicht von Rahmen-für-Rahmen und Feld-für-Feld unterscheiden. Das Codieren von NTSC unterscheidet sich mit einer Periodizität von vier Feldern, und das Codieren von PAL unterscheidet sich mit einer Periodizität von acht Feldern.
  • Bei NTSC werden sowohl die Chrominanzteilträger als auch die Farbburstsignale in Phase um ¼ der Teilträgertaktperiode (TSC) vorgeschoben, zwischen aufeinanderfolgenden Feldern, relativ zu den horizontalen Synchronisierungs- und Basisbandsignalen. Um den Phasenvorschub zu synthetisieren, müssen die aufgezeichneten Zusammensetzungsvideoabtastwerte im Speicher um -¼ TSC (–1 Abtastperiode) verzögert werden, um Feld 2 von Feld 1 zu erzeugen, um -½ TSC (–2 Abtastperioden), um Feld 3 von Feld 1 zu erzeugen, und um +¼ TSC (1 Abtastperiode), um Feld 4 von Feld 1 zu erzeugen. Auf diese Weise wird eine präzise Teilträgerzeitgebung synthetisiert, während ein Jitter von bis zu ½ TSC eingebracht wird. ½ TSC ist gleich 140 Nanosekunden bei der Feld-für-Feld-Horizontalsynchronisationszeitgebung. Obwohl das ½ TSC-Jitter zu einem Zusammensetzungssignal führt, das die Rundsende-NTSC-Spezifikationen nicht erfüllt, ist das Jitter bedeutend kleiner als das, das bei typischen VCR-Laufwerken eingebracht wird.
  • Bei PAL ist die Situation ähnlich, außer daß die Teilträgerphasenänderung 3/8 TSC zwischen aufeinanderfolgenden Feldern ist. Daher müssen die gespeicherten Abtastwerte um ganzzahlige Mehrfache von ½ der 4 FSC Taktperiode verschoben werden. Die einfachste Weise, um solche Verschiebungen zu erreichen, ist das Alternieren der Taktkante, an der der Abtastwert zu dem Digital-zu-Analog-Wandler in aufeinanderfolgenden Feldern übertragen wird.
  • Die obige Erörterung gilt für eine Situation, in der der Abtasttakt eng an dem Farbteilträger phasenverriegelt ist. Bei manchen Implementierungen kann ein asynchroner Abtasttakt verwendet werden, der nicht an dem Farbteilträger phasenverriegelt ist. In diesem Fall ist die obige Strategie zum Verzögern des Taktes, um die entsprechende Verschiebung zu dem Teilträger zu synthetisieren, nicht ausreichend, um sicherzustellen, daß die Anzeigevorrichtung ein stabiles Teilträgersignal empfängt. Genauer gesagt beobachtet die Anzeigevorrichtung allgemein eine scharfe Phasenverschiebung bei dem Farbteilträgersignal an jeder Feldgrenze. Die scharfe Phasenverschiebung kann die Fähigkeit der Anzeigevorrichtung nachteilig beeinträchtigen, den korrekten Teilträgersignalverlauf zu verriegeln, und daher die Qualität des angezeigten Bildes verringern.
  • Eine Möglichkeit zum Korrigieren des Phasenverschiebungsproblems, wenn ein asynchroner Takt verwendet wird, ist, die Phase der internen Teilträgerreferenz der Anzeigevorrichtung Schritt für Schritt in Reihe mit der Phase des tatsächlichen Teilträgersignals zu bringen, das vorbetrachtet werden soll. Dies kann erreicht werden durch Erzeugen geeigneter Farbburstinformationen während der vertikalen Austastperioden. Farbburstinformationen können während der vertikalen Austastperiode erzeugt werden, durch Extrahieren aufgezeichneter Farbburstabtastwerte aus vorangehenden Zeilen in dem Feld unter Verwendung eines geeigneten Algorithmus. Ein geeigneter Algorithmus für NTSC-Signale ist das Extrahieren von Farbburstinformationen aus einer Zeile in dem Feld basierend auf dem Verhältnis zwischen der Anzahl von Zeilen, in denen ein Farbburstsignal während der vertikalen Austastperiode auftritt, und der Anzahl von aktiven Zeilen in dem Feld.
  • Als ein Beispiel wird der Fall eines NTSC-Signals betrachtet, für das die Anzahl von aktiven Zeilen 240 ist, und die vertikale Austastperiode aus entweder 22 oder 23 Zeilen besteht (abhängig von dem Feld), von denen alle außer neun Farbburstinformationen erfordern. Die erste vertikale Austastzeile, die Farbburstaustastinformationen erfordert, würde diese Informationen von Zeile 212 des aktiven aufgezeichneten Videosignals erhalten. Die zweite würde ihr Farbburstsignal von der Zeile 194 erhalten usw. Wie oben erwähnt wurde, bewegen sich die angezeigten Farbburstinformationen rückwärts durch das Feld und der Vorwärtsvorschub in der Phase des Abtasttakts im Hinblick auf den Farbteilträger wird nicht durchgeführt.
  • Das Vorbetrachten analoger Videodaten, ohne zuerst die Daten in digitale Bilddaten umzuwandeln, schließt die Implementierung von manchen zusätzlichen Vorbetrachtungsmerkmalen nicht aus. Das erste zusätzliche Merkmal ist die Fähigkeit, Textmeldungen auf die Videodaten zu überlagern, die auf einem Vorbetrachtungsmonitor angezeigt werden, um einen Benutzer durch Entscheidungen zu führen, die getroffen werden müssen, um die Videodaten weiter zu manipulieren. Das Merkmal kann ohne weiteres ohne Modifikationen an dem Vorbetrachtungssystem eingebracht werden. Software wird verwendet, um Textinformationen über die gespeicherten rohen digitalisierten Videodaten in dem Speicher zu schreiben. Eine Sicherungskopie der gespeicherten rohen digitalisierten Videodaten wird in dem Speicher für eine zukünftige Verwendung gehalten. Wenn die Textüberlagerungen klein sind, erfordert der Lösungsansatz nur einen geringen Betrag an zusätzlichem Speicher. Ferner können die Textüberlagerungen während der vertikalen Austastperiode erzeugt werden, während die Vorbetrachtungsschaltungsanordnung nicht auf den Speicher zugreift.
  • Ein zweites Vorbetrachtungsmerkmal ist die Fähigkeit, die Farberscheinung des Vorbetrachtungsbildes auf interaktive Weise interaktiv anzupassen, die als Sättigung oder Farbton bezeichnet wird. Wenn die rohen digitalisierten Videodaten in dem Speicher aus einer S-Videoquelle erfaßt wurden, dann kann eine Sättigungsanpassung einfach durch Skalieren der Chrominanzabtastwerte erreicht werden, die zerstörungsfrei durch Hardware in Echtzeit erreicht werden. Eine Farbtonverschiebung kann mit ausreichender Genauigkeit für Vorbetrachtungszwecke erreicht werden, durch Anwenden geeigneter 2 × 2-Drehungsmatrizen, um Paare von Chrominanzabtastwerten anzupassen.
  • Leider existiert kein einfacher zerstörungsfreier Lösungsansatz für Farbanpassung, wenn die Abtastwerte in dem Speicher aus einer Zusammensetzungsvideoquelle erfaßt wurden. Wenn eine Softwaredecodierung jedoch schließlich verwendet wird, umfaßt die erste Aufgabe des Softwaredecodierungsprozesses die Trennung der Luminanz- und Chrominanzkomponenten eines Zusammensetzungsvideosignals. Der Prozeß erzeugt schließlich ein S-Videosignal. Durch Durchführen der Softwareaufgabe direkt nachdem der Benutzer das Feld oder den Rahmen ausgewählt hat, das/den der Benutzer drucken möchte, kann das Sättigungsanpaßmerkmal, das oben für S-Video erörtert wurde, nach einer kurzen Verarbeitungsperiode verfügbar gemacht werden. Unter Berücksichtigung, daß die meisten numerisch komplexen Aufgaben, die einer Softwaredecodierung zugeordnet sind, jene der Zeitbasiswiedergewinnung und -wiederabtastung sind, sollte eine Umwandlung von einer Zusammensetzungs- in eine S-Videodarstellung nicht mehr als eine Sekunde oder zwei erfordern, abhängig von dem Prozessorverhalten.
  • Während das Decodieren durchgeführt wird, sollte die Speicherbandbreite vollkommen für den Prozessor zweckgebunden sein. Der Vorbetrachtungsmonitor kann mit einem synthetisierten Videosignal während des Decodierens getrieben werden.
  • Ein anderes Ausführungsbeispiel der Erfindung ermöglicht die selektive Speicherung der rohen digitalisierten Video daten, die aus dem analogen Videosignal erzeugt werden. Der Lösungsansatz der selektiven Speicherung unterscheidet sich für Zusammensetzungsvideo und S-Video. Das Nachfolgende ist eine Beschreibung des Prozesses, der verwendet wird, um zu bestimmen, welche Abtastdaten, die anderweitig als rohe digitalisierte Videodaten bezeichnet werden, aus einem abgetasteten analogen Videosignal vor der Speicherung verworfen werden können.
  • Bezug nehmend auf 3 wird zuerst ein Zusammensetzungsvideosignal betrachtet. Ein Zusammensetzungsvideo wird auf einem einzelnen Kanal von einer analogen Videosignalquelle 70 übertragen. Das Zusammensetzungsvideosignal besteht aus einem Basisbandsignal mit einer Frequenz und einem Farbteilträgersignal mit einer unterschiedlichen Farbteilträgerfrequenz. Um das analoge Zusammensetzungsvideosignal in rohe digitalisierte Daten umzuwandeln, wird das analoge Zusammensetzungsvideosignal üblicherweise in den ersten Wandler 74 bei einer Rate von viermal der Teilträgerfrequenz (FSC) abgetastet. Ein großer Betrag von Abtastdaten, die die vertikalen Austastinformationen, die horizontalen Synchronisierungsinformationen, die horizontalen Austastinformationen und die Farbburstinformationen des analogen Videosignals reflektieren, wird erzeugt.
  • Die Datenabtastwerte werden dann zu dem Speicherungsselektor 78 übermittelt. Der selektive Speicherungsprozeß beginnt durch Identifizieren des wichtigsten Teils des Zusammensetzungsvideosignals. Der wichtigste Teil des Zusammensetzungsvideosignals ist die aktive Region. Die aktive Region des Signals ist der Abschnitt des Signals, der tatsächlich auf einem Monitor angezeigt ist, wie z. B. einem Fernseher. Bei der Abtastrate von 4 FSC bietet ein NTSC-Signal 768 aktive digitalisierte Videoabtastwerte auf jeder horizontalen Zeile, mit ungefähr 240 horizontalen Zeilen pro Feld. Somit enthält jedes Feld 184.320 aktive Abtastwerte. Der Gesamtbetrag von Abtastwerten in einem Feld wird durch Teilen der Anzahl von Abtastwerten pro Sekunde durch die Anzahl von Feldern pro Sekunde bestimmt:
  • Figure 00160001
  • Alle der Abtastwerte aus der aktiven Region werden für eine Speicherung in dem Speicher 82 ausgewählt. Zusätzlich zu den Abtastwerten aus der aktiven Region jedes Feldes werden Abtastwerte, die relevante Zeitgebungsinformationen enthalten, für eine Speicherung ausgewählt. Genauer gesagt werden Abtastwerte um die vorderen horizontalen Synchronisierungskanten und einige oder alle der Farbburstabtastwerte bewahrt. Die verbleibenden horizontalen Synchronisierungsabtastwerte werden verworfen und die präzise Position der vorderen horizontalen Synchronisierungskanten kann später nach Bedarf aus der geringen Anzahl von Abtastwerten bestimmt werden, die gehalten wurden. Wenn der Abtasttakt an der Farbteilfrequenz verriegelt ist, besteht kein Bedarf, die Farbburstabtastwerte zu halten. Insgesamt können zeitgebungsbezogene Informationen ungefähr zwischen 10 und 50 zusätzliche Abtastwerte zu jeder horizontalen Zeile beitragen. Als ein Ergebnis würde jedes Feld zwischen 187 × 103 und 196 × 103 Abtastwerte pro Feld aus potentiell 293 × 103 insgesamt pro Feld enthalten.
  • Bei der obigen Erörterung der selektiven Speicherung für Zusammensetzungsvideoquellen wird angenommen, daß der Speicherungsselektor 78 in der Lage ist, die aktiven Videoabtastwerte und die zugeordneten horizontalen Synchronisations- und Farbburstabtastwerte auf jeder Zeile zu identifizieren. Zu diesem Zweck muß die Schaltungsanordnung bereitgestellt sein, um die vordere Kante jedes horizontalen Synchronisationspulses zu lokalisieren und um die vertikalen Austast- und Synchronisationsregionen des Signals zu identifizieren. Sobald die horizontalen Synchroni sationspositionen innerhalb einem oder zwei digitalisierten Abtastwerten bekannt sind, können die Farbburst- und die aktiven Videoregionen ebenfalls auf eine ähnliche Genauigkeit abgeleitet werden. Einfache Techniken zum Erhalten solcher groben Schätzungen der Synchronisationspulspositionen sind bekannt und werden nicht weiter erörtert. Es ist wichtig, darauf hinzuweisen, daß genaue Synchronisationsinformationen nicht verfügbar sind, bis eine weitere Softwaredecodierung durchgeführt wird. Folglich müssen alle Vorbetrachtungsoperationen ohne genaue Synchronisierungsinformationen arbeiten. Dies stellt keine Schwierigkeit dar, da eine Vorbetrachtung einfach durch erneutes Abspielen gespeicherter Abtastwerte erreicht wird, einschließlich jener Abtastwerte, die aus der Umgebung der vorderen horizontalen Synchronisationskanten aufgezeichnet werden.
  • Mit S-Video ist der selektive Speicherungslösungsansatz ähnlich, außer daß die Bestimmung davon, welche Abtastwerte gespeichert werden müssen und welche Abtastwerte verworfen werden können, komplizierter ist. Mit S-Video liegen zwei Kanäle von rohen digitalisierten Videoabtastwerten vor. Ein Kanal ist für das Y-Signal und enthält alle Luminanz- und horizontalen und vertikalen Zeitgebungsinformationen. Der andere Kanal ist für das C-Signal und enthält die Farbburst- und modulierten Chrominanzinformationen. Beide diese Signale werden bei viermal der Teilträgerfrequenz (4 FSC) abgetastet. Die Y-Kanalabtastwerte werden selektiv auf die Weise gespeichert, die oben für ein Zusammensetzungsvideosignal beschrieben ist, mit der Ausnahme, daß gehaltene Farbburstabtastwerte aus dem C-Kanal erhalten werden. Der C-Kanal enthält andererseits viel mehr redundante Informationen, primär weil die modulierten Chromfinanz- und Farbburstinformationen nur einen schmalen Abschnitt des Frequenzspektrums einnehmen, zentriert um die Teilträgerfrequenz. Die Teilträgerfrequenz für ein NTSC-Signal ist 3,5795 MHz. Das Chrominanzsignal, C(t), weist die allgemeine Form auf:
    Figure 00180001
    wobei I(t) und Q(t) die Basisbandchrominanzsignale darstellen. Obwohl dies nicht ungedingt notwendig ist, ist es zweckmäßig anzunehmen, daß der Abtasttakt an dem Teilträgersignalverlauf derart verriegelt ist, daß der n-te Abtastwert bei der Zeit
    Figure 00180002
    auftritt. In diesem Fall erfüllen die Chrominanzabtastwerte, C[n], folgende Gleichung:
  • Figure 00180003
  • Somit liegen bis zu einem Vorzeichenwechsel zwei versetzte 2 FSC-Abtastungen der Basisbandchrominanzsignale I(t) und Q(t) vor, nämlich I[n] und Q[n]. Die Basisbandsignale weisen üblicherweise eine Bandbreite von nicht mehr als ±6 MHz auf, unter der Annahme, daß I(t) und Q(t) bei einer Rate von
    Figure 00180004
    oder sogar weniger abgetastet werden können, ohne das Abtastungskriterium von Nyquist zu brechen. Daher muß nicht mehr als eine von vier der anfänglichen Sequenz der Chrominanzabtastungen, C[n], für eine Speicherung in dem Speicher ausgewählt werden. Genauer gesagt müssen nur die Abtastwerte I[4n] = C[8n] und Q[4n + 2] = C[8n + 5] gespeichert werden. Der selektive Speicherungslösungsansatz bildet eine notwendigerweise nicht einheitliche Dezimierung der Originalsequenz C[n].
  • Bezug nehmend auf 4 stellen die Punkte das Abtastmuster des Chrominanzkanals dar. Die gefüllten Punkte 100 stellen Abtastwerte dar, die dem Basisband-Q-Chrominanzsignal entsprechen, während die schraffierten Punkte 104 Abtastwerte anzeigen, die dem Basisband-I-Chrominanzsignal entsprechen. Die nichtschraffierten Punkte 102 zeigen Abtastwerte an, die für eine Speicherung nicht notwendig sind. Da Chrominanzabtastwerte nur während des aktiven Abschnitts des Videosignals gespeichert werden, trägt der effizient abgetastete C-Kanal nur 46 × 103 Abtastwerte pro Videofeld bei.
  • Wenn die selektiven Speicherungsausführungsbeispiele der Erfindung implementiert sind, erfordert eine Vorbetrachtung der gespeicherten Videodaten zusätzliche Operationen. 3 stellt ein System dar, das einen Signalrekonstruierer 86 und einen zweiten Wandler 90 und einen Monitor 94 umfaßt, die für ein Zusammensetzungsvideo verwendet werden können. 5 stellt ein System dar, das für Zusammensetzungsvideo und/oder S-Video verwendet werden kann. Die Beschreibung der Operation bezieht sich auf 5, obwohl das System in 3 für ein Zusammensetzungsvideo verwendet werden kann.
  • Bezug nehmend auf 5 verarbeitet der untere Weg entweder ein Zusammensetzungsvideosignal oder die Luminanz-(Y-) Komponente eines S-Videosignals. Der obere Weg trägt andererseits die Chromfinanz-(C-) Komponente eines S-Videosignals und ist auf Null gesetzt, wenn die analoge Signalquelle 110 ein Zusammensetzungsvideo ist. Der erste Zusammensetzungs-/Luminanz-Wandler 132 und der erste Chrominanzwandler 112 tasten die jeweiligen eingehenden analogen Signale bei 4 FSC unter Verwendung eines teilträgerver riegelten Abtasttakts ab und wandeln dann die resultierenden Abtastdaten in rohe digitalisierte Videodaten um. Der Zusammensetzungs-/Luminanz-Speicherungsselektor 130 und der Chrominanzspeicherungsselektor 114 speichern dann selektiv die rohen digitalisierten Videodaten unter Verwendung der oben beschriebenen Techniken. Die Zusammensetzungs/Luminanz-Abtastwerte werden in dem Speicher 128 gespeichert, nach dem Verwerfen aller außer den aktiven digitalisierten Videoabtastwerten und einigen digitalisierten Videoabtastwerten, die für eine genaue Zeitgebungswiedergewinnung erforderlich sind. Die gespeicherten Zusammensetzungs-/Luminanz-Abtastwerte erfordern ungefähr 190 kB pro Feld, wenn jeder Abtastwert auf 8-Bit-Präzision digitalisiert ist. Die Chrominanzabtastwerte werden in dem Fall von S-Video nicht-einheitlich für eine Speicherung in dem Speicher 116 ausgewählt. Die Chrominanzabtastwerte nehmen zusätzlich 46 kB Speicher pro Feld ein. Sobald die gewünschten Videofelder in dem Speicher gespeichert wurden, kann ein analoges Videosignal synthetisiert werden, zum Vorbetrachten von Beliebigen der Felder auf einem Anzeigemonitor 122.
  • Wenn die gespeicherten Abtastwerte einem Zusammensetzungsvideosignal entsprechen, dann muß der Zusammensetzungs/Luminanz-Signalrekonstruierer 126 die nachfolgenden Operationen ausführen: Schritt 1 – Synthetisieren geeigneter vertikaler Austastungs- und vertikaler Synchronisierungssignale für das Zusammensetzungsvideosignal. Schritt 2 – Rekonstruieren jeder horizontalen Zeile der Zusammensetzungsvideoabtastwerte aus den Abtastwerten, die in dem Speicher gespeichert sind. Bei diesem Prozeß muß der Zusammensetzungs-/Luminanz-Signalrekonstruierer 126 jene Abtastwerte synthetisieren, die während der selektiven Speicherung verworfen wurden. Die verworfenen Abtastwerte entsprechen den horizontalen Austastungsintervallen und der abfallenden Flanke des horizontalen Synchronisierungspulses, wobei keine derselben schwierig zu synthetisieren sind. Wenn keine Farbburstabtastwerte gespeichert wurden, dann müssen die Farbburstabtastwerte ebenfalls synthetisiert werden, was ein einfacher Vorgang ist, da eine teilträgerverriegelte Abtastung sicherstellt, daß das Farbburstsignal ein festes Muster ist, das sich alle vier Abtastwerte wiederholt. Das rekonstruierte Zusammensetzungs-/Luminanz-Signal wird dann in dem zweiten Zusammensetzungs-/Luminanz-Wandler 124 von digitalen in analoge Daten umgewandelt.
  • Wenn die gespeicherten Abtastwerte S-Video entsprechen, dann müssen der Zusammensetzungs-/Luminanz-Signalrekonstruierer 126 und der Chrominanzsignalrekonstruierer 118 die nachfolgenden Operationen ausführen: Schritt 1 – Synthetisieren geeigneter vertikaler Austastungs- und vertikaler Synchronisierungssignale für den Luminanzkanal. Schritt 2 – Rekonstruieren jeder horizontalen Zeile der Luminanzabtastwerte aus den Abtastwerten, die in dem Speicher gespeichert sind. Bei diesem Prozeß muß der Zusammensetzungs/Luminanz-Signalrekonstruierer 126 jene Abtastwerte synthetisieren, die während der selektiven Speicherung verworfen wurden. Die verworfenen Abtastwerte entsprechen den horizontalen Austastungsintervallen und der abfallenden Flanke des horizontalen Synchronisierungspulses, wobei keine derselben schwierig zu synthetisieren sind. Wenn keine Farbburstabtastwerte gespeichert wurden, müssen diese auch synthetisiert werden, was ein einfacherer Vorgang ist, da ein teilträgerverriegeltes Abtasten sicherstellt, daß das Farbburstsignal ein festes Muster ist, das sich alle vier Abtastwerte wiederholt. Der einzige Fall, in dem Farbburstabtastwerte nicht gespeichert werden, ist, wenn der Farbteilträger mit einem phasenverriegelten Abtasttakt abgetastet wird. In dieser Situation können Farbburstabtastwerte ohne weiteres synthetisiert werden. Wenn der Abtasttakt nicht phasenverriegelt ist, dann müssen die Farbburstabtastwerte gespeichert werden und die Farbburstabtastwerte können wieder aus dem Speicher abgespielt werden. Es ist jedoch nicht notwendig, alle Farbburstabtastwerte zu speichern. Nur wenige Farbburstabtastwerte müssen gespeichert werden, und die verbleibenden Abtastwer te können durch Wiederholen des festen Musters wiederhergestellt werden, das sich alle vier Abtastwerte wiederholt. Schritt 3 – Interpolieren der verworfenen Chrominanzkanalabtastwerte in dem Chrominanzsignalrekonstruierer 118. Die volle Sequenz von Chrominanzabtastwerten C[n] wird rekonstruiert, durch Interpolieren der Basisband-I[n]- und Q[n]-Signale und Umkehren der Polarität nach Bedarf. Das rekonstruierte Chrominanzsignal wird dann in dem zweiten Chrominanzwandler 120 von digitalen in analoge Daten umgewandelt. Die Chrominanzsignale können dann direkt zu einem S-Videokompatiblen Monitor 122 geliefert werden, wie in 5 gezeigt ist, oder zu den Luminanzabtastwerten hinzugefügt werden, um ein wahres Zusammensetzungsvideosignal zu erhalten, das geeignet für eine Ausgabe an einen Zusammensetzungsvideo-kompatiblen Monitor ist.
  • Wenn eine Textüberlagerung angewendet wird, wo digitalisierte Videodaten selektiv gespeichert wurden, muß eine andere Betrachtung zum Vorbetrachten in Betracht gezogen werden. Vor dem Softwaredecodieren sind die exakten horizontalen Zeitgebungsinformationen aus den rohen digitalisierten Videodaten nicht bekannt. Folglich besteht eine gewisse Unsicherheit im Hinblick auf die Position von Überlagerungspixeln, die zu gezackten Textkanten führen kann. Das Problem wird ohne weiteres durch Speichern und Ersetzen der erfaßten horizontalen Synchronisierungsabtastwerte durch synthetische Synchronisierungsabtastwerte überwunden, auf allen Zeilen, die Überlagerungstext enthalten, und möglicherweise einigen der umgebenden Zeilen. Auf diese Weise steuert der Textüberlagerungsalgorithmus direkt die horizontale Zeitgebung des Vorbetrachtungsvideos in den kritischen Regionen, so daß die Textpixel perfekt aufgereiht sind. Eine Nebenwirkung dieses Lösungsansatzes ist, daß die zugrundeliegenden Vorbetrachtungspixel vielleicht nicht mehr perfekt aufgereiht sind. Im wesentlichen überträgt diese Lösung den Effekt der gezackten Kante von dem Überlagerungstext auf das zugrundeliegende Vorbetrachtungsbild, überall wo der Text erscheint.
  • Obwohl die Erfindung auf andere Gebiete angewendet werden kann, wird das bevorzugte Ausführungsbeispiel an ein Videodrucksystem angewendet. 6 ist eine Darstellung eines Videodrucksystems, das das bevorzugte Ausführungsbeispiel einlagert. Bei dem bevorzugten Ausführungsbeispiel liegen NTSC-Zusammensetzungs- und S-Video-Standards für die analoge Videosignalquelle 150 vor. Die PAL-Zusammensetzungs- und S-Video-Standards könnten jedoch ebenfalls mit geringen Modifikationen verwendet werden.
  • Das Videodrucken bei dem bevorzugten Ausführungsbeispiel erfordert, daß drei Hauptfunktionen ausgeführt werden. Die erste Hauptfunktion umfaßt das Umwandeln des analogen Videosignals in rohe digitalisierte Videodaten und das selektive Speichern von Abschnitten der rohen digitalisierten Videodaten. Die zweite Hauptfunktion umfaßt das Vorbetrachten der eingehenden analogen Videodaten, ohne die eingehenden analogen Videodaten in digitale Bilddaten umwandeln zu müssen. Die dritte Hauptfunktion umfaßt das Verwenden von Software, um ausgewählte Abschnitte von rohen digitalisierten Videodaten in komplette digitale Bilddaten umzuwandeln und dann die digitalen Bilddaten zum Drucken zu verarbeiten.
  • Die erste Hauptfunktion des Umwandelns des analogen Videosignals in rohe digitalisierte Videodaten und das selektive Speichern von Abschnitten der rohen digitalisierten Videodaten wird in einem ersten Wandler 152 und einem Datenspeicherungsselektor 154 ausgeführt. Die Umwandlungs- und Speicherungsinformationen werden ausgeführt, wie oben beschrieben ist. Sobald die Umwandlungs- und Speicherungsoperationen fertiggestellt sind, werden die rohen digitalisierten Videodaten in dem Speicher 156 gespeichert.
  • Die zweite Hauptfunktion zum Vorbetrachten der eingehenden analogen Videodaten, ohne die eingehenden analogen Videodaten in digitale Bilddaten umwandeln zu müssen, wird durch eine Reihe von Vorrichtungen ausgeführt. Anfänglich betrachtet ein Benutzer eine Videopräsentation auf dem Vorbetrachtungsmonitor 162. An dem gewünschten Punkt zeigt der Benutzer dem Videodrucksystem an, daß der Benutzer ein bestimmtes Bild vorbetrachten möchte. Die rohen digitalisierten Videodaten werden dann aus dem Speicher wiedergewonnen und durch den Signalrekonstruierer 158 verarbeitet, unter Verwendung der oben ausgeführten Techniken. Die rekonstruierten rohen digitalisierten Videodaten werden dann zu einem zweiten Wandler 160 gesendet, der die rohen digitalisierten Videodaten in ein analoges Videosignal umwandelt, das dann auf dem Monitor 162 angezeigt wird. Der Benutzer kann dann das Standvideobild vorbetrachten, um zu bestimmen, ob der Benutzer das Standvideobild drucken möchte. Der Benutzer kann durch mehrere Felder oder Rahmen gehen, bevor er entscheidet, was er drucken möchte.
  • Die dritte Hauptfunktion, das Verwenden von Software zum Umwandeln ausgewählter Abschnitte von rohen digitalisierten Videodaten in vollständige digitale Bilddaten und dann das Verarbeiten der digitalen Bilddaten zum Drucken wird außerhalb des Erfassungs- und Vorbetrachtungs-Systems erreicht. Sobald ein Standvideobild zum Drucken ausgewählt wurde, werden die rohen digitalisierten Videodaten zu einem Softwaredecodierer 164 gesendet und in ein digitales Bild unter Verwendung herkömmlicher Softwaredecodierungsalgorithmen umgewandelt. Die erzeugten digitalen Bilddaten werden dann zu einem Druckprozessor 166 gesendet, um für ein Drucken verarbeitet zu werden. Der Druckprozessor verwendet herkömmliche Verarbeitungstechniken. Sobald es verarbeitet wurde, wird das Bild zu einem Drucker 168 gesendet, wo ein Druckkopiebild gedruckt wird.

Claims (12)

  1. Ein Verfahren zum Vorbetrachten von Videodaten auf einer Feld-für-Feld-Basis oder einer Rahmen-für-Rahmen-Basis, das folgende Schritte aufweist: Umwandeln (50) eines eingehenden analogen Videosignals, das eine Mehrzahl von separaten Videobildern darstellt, in eine Mehrzahl von rohen digitalisierten Videodatensegmenten, wobei jedes rohe digitalisierte Videodatensegment digitalisierte Werte seines zugeordneten Videobildes darstellt; Speichern (52) der rohen digitalisierten Videosegmenten in einem Speicher (22, 82, 116, 128, 56); Anzeigen des eingehenden analogen Videosignals auf einer Vorbetrachtungsvorrichtung (30, 94, 122, 162); Wiedergewinnen (54) des rohen digitalisierten Videodatensegments aus dem Speicher, das ein Videobild darstellt, das durch einen Benutzer aus dem angezeigten eingehenden analogen Videosignal ausgewählt wurde; Umwandeln (56) des rohen digitalisierten Videodatensegments in ein ausgehendes analoges Videosignal; und Liefern (58) des ausgehenden analogen Videosignals zu der Vorbetrachtungsvorrichtung (30, 94, 122, 162) für eine Anzeige als ein Standbild.
  2. Ein Verfahren gemäß Anspruch 1, bei dem der Schritt (50) des Umwandelns des rohen digitalisierten Videoda tensegments in ein ausgehendes analoges Videosignal den Schritt des Anpassens von Zeitgebungsdaten umfaßt, wobei die Zeitgebungsdaten eine Komponente der rohen digitalisierten Videodaten sind, die zum Vorbetrachten notwendig sind.
  3. Ein Verfahren gemäß Anspruch 1 oder 2, bei dem der Schritt (52) des Speicherns des rohen digitalisierten Videodatensegments in einem Speicher nur Abschnitte der rohen digitalisierten Videodaten speichert, die die aktive Region des Videobildes darstellen, und Abschnitte der rohen digitalisierten Videodaten verwirft, die nicht-aktive Regionen des Videobildes darstellen.
  4. Ein Verfahren gemäß Anspruch 3, bei dem der Schritt (56) des Umwandelns des entsprechenden Segments aus rohen digitalisierten Videodaten in ein ausgehendes analoges Videosignal die Schritte des Synthetisierees der verworfenen Abschnitte der entsprechenden rohen digitalisierten Videodaten und des erneuten Aufbauens des ausgewählten Abschnitts aus rohen digitalisierten Videodaten umfaßt, durch Kombinieren der gespeicherten Abschnitte und der synthetisierten Abschnitte des entsprechenden Abschnitts der rohen digitalisierten Videodaten.
  5. Ein Verfahren gemäß einem der vorangehenden Ansprüche, bei dem der Schritt (58) des Lieferns des ausgehenden analogen Videosignals zu der Vorbetrachtungsvorrichtung (30, 94, 122, 162) für eine Anzeige den Schritt des Überlagerns von Textinformationen auf das Videosignal, das auf der Vorbetrachtungsvorrichtung angezeigt ist, und/oder den Schritt des Anpassens der Farberscheinung des ausgehenden analogen Videosignals umfaßt.
  6. Ein Verfahren gemäß einem der vorangehenden Ansprüche, das den Schritt des Decodierens des rohen digitalisierten Videodatensegments in digitale Bilddaten unter Verwendung von Software und vorzugsweise den Schritt des Druckens der digitalen Bilddaten umfaßt.
  7. Ein Verfahren gemäß einem der vorangehenden Ansprüche, bei dem das ausgehende analoge Videosignal zu der Vorbetrachtungsvorrichtung geliefert wird, unmittelbar nach dem Schritt (54) des Auswählens eines Videobildes zum Vorbetrachten.
  8. Ein System zum Vorbetrachten von Standbildern von Videodaten, das folgende Merkmale aufweist: einen Eingang (14, 70, 110, 150), der angeschlossen ist, um ein eingehendes analoges Videosignal zu empfangen, das eine Mehrzahl von Videobildern darstellt; eine erste Umwandlungseinrichtung (16, 74, 112, 132, 152), die mit dem Eingang zum Umwandeln eines eingehenden analogen Signals in eine Mehrzahl von rohen digitalisierten Videodatensegmenten verbunden ist, wobei jedes rohe digitalisierte Segment digitalisierte Werte seines zugeordneten Videobildes darstellt; einen Speicher (22, 82, 116, 128, 156), der angeschlossen ist, um die rohen digitalisierten Videodatensegmente zu empfangen und zu speichern; eine Anzeigevorrichtung (30, 94, 122, 162), die angeschlossen ist, um das eingehende analoge Signal zu empfangen und anzuzeigen; eine zweite Umwandlungseinrichtung (26, 90, 118, 124, 160) zum Umwandeln eines digitalisierten Videodatensegments, das aus dem Speicher wiedergewonnen wird, das ein Videobild darstellt, das durch einen Benutzer aus dem angezeigten eingehenden analogen Videosignal ausgewählt wurde, in ein ausgehendes analoges Videosignal, wobei die Anzeigevorrichtung (30, 94, 192, 162) gekoppelt ist, um das ausgehende analoge Videosignal als ein Standbild zu empfangen und anzuzeigen.
  9. Ein System gemäß Anspruch 8, bei dem für ein eingehendes analoges Signal, das Farb-Teilträger-Phasendaten umfaßt, die für eine Videodatenvorbetrachtung notwendig sind, die zweite Umwandlungseinrichtung mit einer Zeitgebungssteuerungseinrichtung versehen ist, zum Anpassen der Farb-Teilträger-Phasendaten, um einen Farb-Teilträger-Phasenvorschub zu berücksichtigen.
  10. Ein System gemäß Anspruch 8 oder 9, das eine Speicherungsauswahleinrichtung (78, 114, 130, 154) zum Verwerfen von Abschnitten des rohen digitalisierten Videodatensegments umfaßt, das nicht-aktive Regionen des Videobildes darstellt, und zum Speichern von Abschnitten des rohen digitalisierten Videodatensegments speichert, die die aktiven Regionen des Videobildes darstellen, aufweist.
  11. Ein System gemäß Anspruch 10, das eine Synthese- und Neukonstruktions-Einrichtung (86, 118, 125, 158) für rohe digitalisierte Daten zum Synthetisieren von Daten, um die verworfenen Abschnitte von rohen digitalisierten Daten zu replizieren, und zum Erzeugen rekonstruierter roher digitalisierter Videodaten aus den gespeicherten Abschnitten der rohen digitalisierten Videodaten und aus den synthetisierten Daten, umfaßt.
  12. Ein System gemäß einem der Ansprüche 8 bis 11, das eine Textüberlagerungseinrichtung, um zu ermöglichen, daß Textinformationen auf das ausgehende analoge Signal überschrieben werden, und/oder eine Farbanpassungseinrichtung zum Anpassen der Farberscheinung des ausgehenden analogen Signals, umfaßt.
DE69819613T 1997-07-17 1998-06-15 Videorastererfassung und Vorschau Expired - Fee Related DE69819613T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US896006 1997-07-17
US08/896,006 US6297851B1 (en) 1997-07-17 1997-07-17 Analog video frame capture and preview

Publications (2)

Publication Number Publication Date
DE69819613D1 DE69819613D1 (de) 2003-12-18
DE69819613T2 true DE69819613T2 (de) 2004-09-16

Family

ID=25405448

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69819613T Expired - Fee Related DE69819613T2 (de) 1997-07-17 1998-06-15 Videorastererfassung und Vorschau

Country Status (4)

Country Link
US (1) US6297851B1 (de)
EP (1) EP0892543B1 (de)
JP (1) JPH11168699A (de)
DE (1) DE69819613T2 (de)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6642956B1 (en) * 1998-05-29 2003-11-04 Agilent Technologies, Inc. Digital image processor for a digital camera
JP3702699B2 (ja) * 1999-03-26 2005-10-05 三菱電機株式会社 カラー画像表示装置
JP4182599B2 (ja) * 1999-08-16 2008-11-19 ソニー株式会社 受信装置及び画像データ処理方法
JP4192383B2 (ja) * 2000-02-24 2008-12-10 ソニー株式会社 デジタル放送受信システム、デジタル放送受信装置、並びにデジタル放送印刷装置
JP4201070B2 (ja) * 2000-06-28 2008-12-24 エルジー ディスプレイ カンパニー リミテッド 液晶表示装置のガンマ電圧の修正装置および方法
US7253919B2 (en) * 2000-11-30 2007-08-07 Ricoh Co., Ltd. Printer with embedded retrieval and publishing interface
US7215831B2 (en) * 2001-04-26 2007-05-08 Georgia Tech Research Corp. Video enhancement using multiple frame techniques
US7861169B2 (en) 2001-11-19 2010-12-28 Ricoh Co. Ltd. Multimedia print driver dialog interfaces
US7415670B2 (en) 2001-11-19 2008-08-19 Ricoh Co., Ltd. Printer with audio/video localization
US7424129B2 (en) 2001-11-19 2008-09-09 Ricoh Company, Ltd Printing system with embedded audio/video content recognition and processing
US7747655B2 (en) 2001-11-19 2010-06-29 Ricoh Co. Ltd. Printable representations for time-based media
US7314994B2 (en) * 2001-11-19 2008-01-01 Ricoh Company, Ltd. Music processing printer
EP1320252A3 (de) 2001-12-12 2005-07-13 Matsushita Electric Industrial Co., Ltd. Bildausgabevorrichtung, Bilderzeugungsvorrichtung und Verfahren zum Kopieren von Videos auf Papier
GB2384879A (en) * 2002-02-01 2003-08-06 Sony Uk Ltd Method for providing binary digital TV data from a structured ata format
US7814511B2 (en) * 2002-02-27 2010-10-12 Index Systems, Inc. Systems and methods for digitizing video related to products
US7009655B2 (en) * 2002-07-23 2006-03-07 Mediostream, Inc. Method and system for direct recording of video information onto a disk medium
US7139033B2 (en) 2003-02-19 2006-11-21 Sharp Laboratories Of America, Inc. System and method for television frame capture and display
KR100565059B1 (ko) * 2003-08-25 2006-03-30 삼성전자주식회사 출력 화면 전환 장치 및 방법
US7573593B2 (en) 2003-09-25 2009-08-11 Ricoh Company, Ltd. Printer with hardware and software interfaces for media devices
JP2005108230A (ja) 2003-09-25 2005-04-21 Ricoh Co Ltd オーディオ/ビデオコンテンツ認識・処理機能内蔵印刷システム
US7528976B2 (en) 2003-09-25 2009-05-05 Ricoh Co., Ltd. Stand alone printer with hardware/software interfaces for sharing multimedia processing
US7508535B2 (en) 2003-09-25 2009-03-24 Ricoh Co., Ltd. Stand alone multimedia printer with user interface for allocating processing
US8077341B2 (en) 2003-09-25 2011-12-13 Ricoh Co., Ltd. Printer with audio or video receiver, recorder, and real-time content-based processing logic
US7570380B2 (en) * 2003-09-25 2009-08-04 Ricoh Company, Ltd. Printer user interface
US7440126B2 (en) 2003-09-25 2008-10-21 Ricoh Co., Ltd Printer with document-triggered processing
US7511846B2 (en) 2003-09-25 2009-03-31 Ricoh Co., Ltd. Printer having embedded functionality for printing time-based media
US7505163B2 (en) 2003-09-25 2009-03-17 Ricoh Co., Ltd. User interface for networked printer
US7864352B2 (en) 2003-09-25 2011-01-04 Ricoh Co. Ltd. Printer with multimedia server
US7528977B2 (en) 2003-09-25 2009-05-05 Ricoh Co., Ltd. Printer with hardware and software interfaces for peripheral devices
TWI250804B (en) * 2004-02-06 2006-03-01 Admtek Inc Method and device for user to instantly sense and capture the audiovisual stream
US7570305B2 (en) * 2004-03-26 2009-08-04 Euresys S.A. Sampling of video data and analyses of the sampled data to determine video properties
US8274666B2 (en) 2004-03-30 2012-09-25 Ricoh Co., Ltd. Projector/printer for displaying or printing of documents
US7421521B2 (en) * 2004-04-05 2008-09-02 Intel Corporation System, method and device for real time control of processor
KR100631610B1 (ko) * 2004-11-26 2006-10-09 엘지전자 주식회사 휴대단말기의 영상신호 합성장치 및 방법
US20060218578A1 (en) * 2005-03-24 2006-09-28 Amy Kyle Integrated offline product branding method
TW200709681A (en) * 2005-08-26 2007-03-01 Cheertek Inc Method and apparatus for instant replay of digital broadcast data
KR100793965B1 (ko) * 2005-11-07 2008-01-16 삼성전자주식회사 방송 신호를 캡쳐하는 방송수신장치 및 그 방법
KR101358813B1 (ko) * 2007-02-27 2014-02-06 삼성전자주식회사 정지화면 처리방법 및 이를 적용한 방송수신장치
US8705623B2 (en) 2009-10-02 2014-04-22 Texas Instruments Incorporated Line-based compression for digital image data
KR102445699B1 (ko) * 2016-02-18 2022-09-21 삼성전자주식회사 전자 장치 및 그의 동작 방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4751583A (en) * 1984-06-04 1988-06-14 Levine Alfred B Off line photocopying system using portable electronic camera, visual previewing and image processing
US4527193A (en) 1982-09-30 1985-07-02 Hazeltine Corporation Image storage system
US4685003A (en) * 1983-12-02 1987-08-04 Lex Computing & Management Corporation Video composition method and apparatus for providing simultaneous inputting and sorting of video source material
JPS60199437A (ja) * 1984-03-24 1985-10-08 株式会社東芝 超音波診断装置
US5109281A (en) * 1987-05-25 1992-04-28 Hitachi, Ltd. Video printer with separately stored digital signals printed in separate areas to form a print of multiple images
US4855813A (en) * 1987-12-11 1989-08-08 Russell David P Television image processing system having capture, merge and display capability
US5121476A (en) * 1988-02-22 1992-06-09 Yee Keen Y TV data capture device
JPH01264377A (ja) * 1988-04-15 1989-10-20 Hitachi Ltd ビデオプリンタ
JP2748562B2 (ja) * 1988-07-13 1998-05-06 セイコーエプソン株式会社 画像処理装置
JPH0267883A (ja) 1988-09-02 1990-03-07 Hitachi Ltd ビデオプリンタ信号処理回路
US5138503A (en) * 1988-11-16 1992-08-11 Sharp Kabushiki Kaisha Field or frame recording method and apparatus for an electronic still camera
US4998215A (en) 1989-02-01 1991-03-05 Hewlett-Packard Company Apparatus and method for converting video information for printing by a standard printer
US5251074A (en) * 1989-04-14 1993-10-05 Hitachi, Ltd. Method and apparatus for controlling a video signal print system
KR940000461B1 (ko) * 1989-12-15 1994-01-21 주식회사 금성사 Tv수상기의 화면 정지회로
KR940001742B1 (ko) * 1991-05-27 1994-03-05 삼성전자 주식회사 고속 비디오 칼라 프린터
JPH0778804B2 (ja) * 1992-05-28 1995-08-23 日本アイ・ビー・エム株式会社 シーン情報入力システムおよび方法
JPH0738830A (ja) * 1993-07-22 1995-02-07 Fuji Photo Film Co Ltd ビデオプリンタ
US5485553A (en) * 1993-10-29 1996-01-16 Hewlett-Packard Company Method and apparatus for managing and initiating video capture and printing
US5732184A (en) * 1995-10-20 1998-03-24 Digital Processing Systems, Inc. Video and audio cursor video editing system

Also Published As

Publication number Publication date
JPH11168699A (ja) 1999-06-22
EP0892543A3 (de) 1999-11-17
US6297851B1 (en) 2001-10-02
DE69819613D1 (de) 2003-12-18
EP0892543A2 (de) 1999-01-20
EP0892543B1 (de) 2003-11-12

Similar Documents

Publication Publication Date Title
DE69819613T2 (de) Videorastererfassung und Vorschau
DE3239362C2 (de) System zur Erzeugung eines Bildes einer zeilenweise verschachtelt abgetasteten Szene
DE3435332C2 (de)
DE4012520C2 (de) Fernsehanordnung mit Einrichtungen zur Verarbeitung einer Mehrbilddarstellung
DE4191166C2 (de) Bild-Auflösungserhöhung mit Dithering (Dither-Rauschtechnik)
DE2746285C2 (de) Fernseh-Bildverarbeitungssystem
DE2703579C2 (de) Anordnung zur Verarbeitung von Videosignalen
DE3401678C2 (de) Betrachtungsgerät für die Zusammenstellung von Videobildern
DE3010990A1 (de) Digitales stehbildspeichersystem
DE3431200C2 (de)
DE69631445T2 (de) Videosignalverarbeitungsvorrichtung zur automatischen Phasenregelung von Abtasttakten
DE3233882C2 (de)
DE3814627A1 (de) Kodieranordnung
DE3625932A1 (de) Bildwiedergabesystem mit fortlaufender abtastung
DE3503725A1 (de) Vorrichtung zur umwandlung eines fernsehsignals in ein solches mit anderem seitenverhaeltnis
DE3239404A1 (de) Umcodierbares, hochaufloesendes fernsehsystem mit vertikalabtastung und umcodiereinrichtung sowie empfaenger hierfuer
DE3590163T (de) Verfahren zur Erzeugung von semicompatiblen Fernsehsignalen hoher Auflösung, die über zwei Kabelfernsehkanäle übertragen werden können
DE3907118A1 (de) Schaltungsanordnung zum ausdehnen eines steuersignals bei videosignalverarbeitung
DE3625933C2 (de) Anordnung zur Wiedergabe von Fernsehsignalen unter Reduzierung des Bildflimmerns
DE3431262A1 (de) Mit fortlaufender zeilenabtastung arbeitendes fernsehgeraet
DE69433392T2 (de) Videodatenprozessor und Videosignaldatenverarbeitung
DD248916A5 (de) Darstellungssystem mit fortschreitender abtastung und korrektur fuer nicht normgemaesse signale
DE4143074A1 (de) Verfahren und einrichtung zum umformatieren verschachtelter videodaten zur darstellung auf einem computer-ausgabedisplay
DE3913957C2 (de)
DE4139403C2 (de) Abtastungsanzeigegerät

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: HEWLETT-PACKARD DEVELOPMENT CO., L.P., HOUSTON, TE

8339 Ceased/non-payment of the annual fee