-
Die Erfindung bezieht sich allgemein
auf das Erfassen und Betrachten von Videodaten. Insbesondere bezieht
sich die Erfindung auf das Erfassen und Betrachten von Standbildern
von analogen Videodaten in einem Videodrucksystem.
-
Videodaten werden üblicherweise
in einem von zwei Formaten geliefert, Zusammensetzungsvideo oder
S-Video. Zusammengesetztes Video ist ein Videosignal, bei dem die
Luminanz(Helligkeit), Chrominanz-(Farbe), vertikale Austast-Informationen,
horizontale Synchronisations-Informationen und Farbburst-Informationen
auf einem einzelnen Kanal gemäß einem
bestimmten Codierungsstandard präsentiert
werden. S-Video
oder getrenntes Video (separated video) ist ein Videoliefersystem
höherer
Qualität,
bei dem die Luminanz-, die vertikalen Austast-Informationen und
die horizontalen Synchronisations-Informationen auf einem Kanal
getragen werden und die Chrominanz- und Farbburst-Informationen
auf einem anderen Kanal getragen werden. Die unterschiedlichen Codierungsstandards
für zusammengesetztes
Video und S-Video umfassen die Standards des National Television
Standards Committee (NTSC), das Phase Alternate Line System (PAL-System) und den Standard
Sequential Couleur A'manorie
(SECAM).
-
Gemäß NTSC-Standards enthält ein Rahmen
aus Videodaten zwei Felder aus Videodaten. Ein Rahmen aus Videodaten
weist 525 horizontale Informationszeilen auf, wobei jedes der zwei
Felder 262,5 horizontale Informationszeilen aufweist. Die horizontalen
Informationszeilen werden auf einen Monitor abgetastet, wie z. B.
ein Televisionsset, mit einer Rate von 30 Rahmen pro Sekunde.
-
Die bekannte Technik der Video-Erfassung
und -Vorbetrachtung erfordert, daß Videodaten mehrere Verarbeitungsschritte
während
der Erfassung und der Vorbetrachtung durchlau fen. Der erste Schritt
bei der Video-Erfassung und -Vorbetrachtung ist die Umwandlung eines
analogen Videosignals in rohe digitalisierte Videoabtastwerte und
dann die Umwandlung von rohen digitalisierten Videoabtastwerten
in digitale Bilddaten. Rohe digitalisierte Videoabtastwerte bestehen
aus digitalisierten Werten des analogen Signals. Digitale Bilddaten
bestehen aus Daten, die in Farbpixelwerte decodiert wurden.
-
Nachdem das analoge Videosignal in
digitale Bilddaten umgewandelt wurde, werden die digitalen Bilddaten
entweder sofort übertragen,
für eine
Vorbetrachtung, oder in dem Speicher gespeichert, bis sie für eine Vorbetrachtung
aufgerufen werden. Digitale Bilddaten, die zum Vorbetrachten ausgewählt werden,
werden von den digitalen Bilddaten zurück in analoge Videodaten umgewandelt
und dann auf einem Monitor angezeigt. Bestehende Video-Erfassungs-
und Anzeige-Vorrichtungen erreichen die Umwandlung und Rückumwandlung von
analogen Videodaten und digitalen Bilddaten mit der Hilfe von Allzweck-Video-Decodierungs-
und Codierungs-Chipsätzen. Die
Chipsätze
führen
die notwendigen Zeitgebungswiedergewinnungs-, Luminanz/Chrominanz-Trennungs-,
und Chrominanz-Demodulations-Aufgaben in Echtzeit durch.
-
Video-Erfassungs- und -Vorbetrachtungs-Techniken
werden häufig
an Videodrucken angewendet. Videodrucken ist eine Technik, durch
die ein Standbild aus einem Bewegungsvideo gedruckt wird, wie z.
B. einem VHS-Band. Beim Videodrucken wird ein Video durch einen
Benutzer betrachtet. Sobald ein Bild von Interesse identifiziert
wird, wird ein Standvideobild zur Vorbetrachtung auf einem Monitor
erzeugt. Das Erzeugen des Standvideobildes umfaßt das Umwandeln entsprechender
digitaler Bilddaten in ein analoges Videosignal. Der Benutzer betrachtet
dann das Standvideobild vorab und leitet an, das Bild zu drucken,
wenn das Bild erwünscht
ist. Sobald es ausgewählt
ist, werden die digitalen Bilddaten, die dem Standvideobild entsprechen,
zu einem Drucker zum Drucken übertragen.
-
Die bekannte Technik des Videodruckens
ist offenbart in dem U.S.-Patent Nr. 5,045,951 an Kimura u. a. und
dem U.S.-Patent
Nr. 4,998,215 an Black u. a. In Kimura u. a. sind ein Videosignalverarbeiter
und ein Videosignalverarbeitungsverfahren für einen Videodrucker offenbart.
Grundlegend für
dieses System ist eine anfängliche
Analog-zu-Digital-Umwandlung
des ursprünglichen
analogen Videosignals. Die digitalen Daten, die aus dem Analog-zu-Digital-Wandler gemäß Kimura
u. a. ausgegeben werden, sind Pixeldaten. Wie oben erwähnt wurde,
sind Pixeldaten Daten, die in einem Format vorliegen, das Computer
als Bilddaten erkennen. Das heißt,
keine zusätzliche
Umwandlung der Pixeldaten ist vor dem Drucken nötig. Um aber das Bild vorzubetrachten,
das zum Drucken ausgewählt
wurde, müssen
die Pixeldaten wieder in ein analoges Signal rückumgewandelt werden, das auf
einem Monitor angezeigt werden kann. Die Rückumwandlung erfordert zusätzliche Hardware
und Verarbeitung.
-
Bei Black u. a. sind ein Verfahren
und eine Vorrichtung zum Umwandeln von Videoinformationen zum Drucken
durch einen Standarddrucker offenbart. Der erste Prozeß bei der
Erfindung ist eine Analog-zu-Digital-Umwandlung. Der Analog-zu-Digital-Umwandler
wandelt ein analoges Videosignal in Anzeigepunkte oder Pixeldaten
um. Die Pixeldaten liegen in einem Standardgraphikformat vor, das
mit einem Standarddrucker kompatibel ist. Wenn aber ein Benutzer
das Standbild vorbetrachten möchte,
bevor es gedruckt wird, müssen die
Pixeldaten zuerst zurück
in ein analoges Videosignal umgewandelt werden, das mit einem Videomonitor kompatibel
ist.
-
Die EP-A-0,105,642 offenbart ein
Bildspeicherungssystem, bei dem Videoinformationen aus abgetasteten
Abschnitten auf dem Band eines Videobandaufzeichnungsgeräts gespeichert
werden, nach dem Verarbeiten und Formatieren, über einen Schalter. Videoinformationen,
die auf dem Band des VTR (video tage recorder) gespeichert sind,
können
in den Speicher eines Separationsvorbetrachters eingegeben werden,
nach dem Decodieren und Verarbeiten über einen Schalter. Eine Steuerung
steuert die Operation der Schalter, die die Informationen und den
VTR leiten. Eine Tastatur, ein Steuerungsbedienfeld und ein Drucker
bilden eine Schnittstelle mit der Steuerung.
-
Während
die bekannten Techniken zur Video-Erfassung und – Vorbetrachtung für ihre beabsichtigten Zwecke
gut funktionieren, liegen Einschränkungen vor. Zum Beispiel kann
die Umwandlung von analogen Videodaten in digitale Videodaten und
zurück
in analoge Videodaten zum Vorbetrachten den Verlust von Bildqualität verursachen.
Ferner müssen
100 der digitalen Bilddaten in dem Speicher für ein potentielles Vorbetrachten
oder Drucken gespeichert sein. Die Speicherungsanforderungen können die
Speicherungskapazität schnell überlasten.
Zusätzlich
dazu weisen die Chipsätze,
die erforderlich sind, um Analog-zu-Digital- und Digitalzu-Analog-Umwandlungen
auszuführen,
relativ hohe Kosten auf.
-
Die vorliegende Erfindung schafft
eine verbesserte Vorbetrachtung von Videodaten.
-
Gemäß einem Aspekt der vorliegenden
Erfindung wird ein Verfahren zum Vorbetrachten von Videodaten gemäß Anspruch
1 geschaffen.
-
Gemäß einem anderen Aspekt der
vorliegenden Erfindung wird ein System zum Vorbetrachten von Standbildern
von Videodaten gemäß Anspruch
8 geschaffen.
-
Das bevorzugte Ausführungsbeispiel
schafft ein Verfahren und ein System zum Vorbetrachten eines Standvideobildes,
ohne zuerst ein analoges Videosignal in digitale Bilddaten umwandeln
zu müssen
und dann die digitalen Bilddaten zurück in ein analoges Videosignal
umwandeln zu müssen,
das das gewünschte
Standvideobild darstellt. Zusätzlich
dazu kann es Videosignale speichern, so daß Speicherraum effektiv genutzt
wird, während
die Datenintegrität
intakt gehalten wird.
-
Bei dem bevorzugten Ausführungsbeispiel
wird ein analoges Videosignal aus einer analogen Videosignalquelle
erzeugt, wie z. B. einem Videokassettenspieler. Das analoge Videosignal
wird kontinuierlich durch einen Eingang empfangen, der mit einem
ersten Wandler verbunden ist. Der Wandler wandelt das analoge Videosignal
in rohe digitalisierte Videodaten um, anstatt das analoge Videosignal
in vollständig
decodierte digitale Bilddaten umzuwandeln. Die rohen digitalisierten
Videodaten werden in einem Speicher gespeichert, bis das Bild für eine Vorbetrachtung
ausgewählt
wird. Um ein Bild für
eine Vorbetrachtung auszuwählen,
wird das analoge Videosignal zu einem Anzeigemonitor gleichzeitig
mit der Umwandlung der analogen Videodaten in rohe digitalisierte
Videodaten geliefert. Ein Benutzer, der den Anzeigemonitor betrachtet,
wählt ein
Bild des Videos aus, das der Benutzer als ein Standvideobild betrachten
möchte.
Die rohen digitalisierten Videodaten, die dem gewünschten
Standvideobild entsprechen, werden dann von rohen digitalisierten
Videodaten in ein analoges Videosignal zurück umgewandelt. Das Standvideobild
kann auf einer Feld-für-Feld-Basis oder einer Rahmen-für-Rahmen-Basis
betrachtet werden. Um das Standvideobild zu erzeugen, werden die
rohen digitalisierten Videodaten durch einen zweiten Wandler verarbeitet.
Die Rückumwandlung
von rohen digitalisierten Videodaten in ein analoges Videosignal,
das ein Standvideobild darstellt, erfordert eine gewisse Manipulation. Genauer
gesagt wird die Phase des Farbteilträgerfrequenzabschnitts des analogen
Videosignals angepaßt, um
den Phasenvorschub zu berücksichtigen,
der in dem Originalsignal auftritt. Sobald das analoge Videosignal erzeugt
ist, wird das analoge Videosignal übermittelt und als ein Standvideobild
auf einem Anzeigemonitor angezeigt.
-
Somit schafft das bevorzugte Ausführungsbeispiel
ein Videodrucksystem, das folgende Merkmale aufweist: einen ersten
Wandler, der angeschlossen ist, um ein eingehendes analoges Videosignal
zum Umwandeln des eingehenden analogen Signals in rohe digitalisierte
Videodaten empfängt,
wobei das eingehende analoge Signal Phasendaten umfaßt, die
notwendig für
ein Videodatenvorbetrachten sind; einen Speicherungsselektor, der
mit dem ersten Wandler zum Identifizieren notwendiger Abschnitte
und nicht notwendiger Abschnitte der rohen digitalisierten Videodaten,
und zum Verwerfen der unnötigen
Abschnitte der rohen digitalisierten Videodaten verbunden ist, wobei
die notwendigen Abschnitte der rohen digitalisierten Daten Bildinformationen
und nichtsynthetisierbare Zeitgebungsinformationen enthalten und
die unnötigen
Abschnitte der rohen digitalisierten Daten synthetisierbare Zeitgebungsinformationen
enthalten; einen Speicher, der mit dem Speicherungsselektor zum
Speichern der identifizierten notwendigen Abschnitte der rohen digitalisierten
Videodaten verbunden ist; einen Signalrekonstruierer, der mit dem
Speicher zum Synthetisieren der verworfenen unnötigen Abschnitte der rohen
digitalisierten Videodaten und zum Rekonstruieren der rohen digitalisierten
Videodaten aus den notwendigen Abschnitten der rohen digitalisierten
Videodaten und aus den synthetisierten Abschnitten der unnötigen rohen
digitalisierten Videodaten verbunden ist; einen zweiten Wandler,
der mit dem Signalrekonstruierer verbunden ist, zum Umwandeln der
rekonstruierten rohen digitalisierten Videodaten in ein ausgehendes
analoges Videosignal und zum Anpassen der Phasendaten, um einen
Phasenvorschub zu berücksichtigen;
einen Monitor, der mit dem zweiten Wandler zum Anzeigen des ausgehenden
analogen Videosignals verbunden ist; einen Softwaredecodierer, der
mit dem Speicher zum Decodieren der identifizierten notwendigen
Abschnitte der rohen digitalisierten Videodaten in digitale Bilddaten
verbunden ist; und einen Drucker, der mit dem Softwaredecodierer
verbunden ist, zum Erzeugen eines gedruckten Bildes, das die decodierten
digitalen Bilddaten darstellt.
-
Es bestehen viele Vorteile bei dem
bevorzugten Lösungsansatz
gegenüber
dem herkömmlichen
Lösungsansatz
zum Verwenden von Allzweck-Video-Decodierungs- und -Codierungs-Chipsätzen zum
sofortigen Umwandeln eines eingehenden analogen Videosignals in
digitalisierte Bilddaten. Ein Vorteil ist, daß der bevorzugte Lösungsansatz
die Verwendung der Allzweck-Video-Decodierungs- und -Codierungs-Chipsätze nicht
erfordert. Die Chipsätze
fügen zusätzliche
Kosten zu einem analogen Videoerfassungs- und Vorbetrachtungs-System
hinzu. Ein anderer Vorteil ist, daß es der bevorzugte Lösungsansatz
dem Benutzer ermöglicht, so
viel Kenntnisse über
die ursprünglichen
Videodaten zu halten wie möglich,
durch Speichern der rohen digitalisierten Videodaten in dem Speicher.
Zusätzlich
dazu ermöglicht
der Zugriff auf rohe digitalisierte Videodaten ein vortschrittliches
Decodieren und ein verbessertes Verarbeiten.
-
Ein weiteres Ausführungsbeispiel der Erfindung
ermöglicht
die selektive Speicherung von rohen digitalisierten Videodaten,
die aus einem analogen Videosignal erzeugt werden. Der selektive
Speicherungslösungsansatz
unterscheidet sich für
zusammengesetztes Video und S-Video, wobei zusammengesetztes Video aus
einem Basisbandsignal einer relativ hohen Bandbreite und einem Schmalbandsignal
zentriert an der Farbteilträgerfrequenz
(FSC) besteht. Zum Umwandeln des analogen
Zusammensetzungsvideosignals in rohe digitalisierte Videodaten wird
das analoge Zusammensetzungsvideosignal üblicherweise bei einer Rate
von viermal der Farbteilträgerfrequenz
abgetastet. Der große
Betrag von Abtastdaten, die die vertikalen Austastinformationen,
die horizontalen Synchronisierungsinformationen, die horizontalen
Austastinformationen und die Farbburstinformationen des analogen
Videosignals reflektieren, wird erzeugt. Ein Großteil der Abtastwerte, die die
vertikalen Austast-, die horizontalen Austast-, die horizontalen
Synchronisierungs- und die Farbburst-Informationen darstellen, müssen nicht
gespeichert werden. Die Abtastwerte können später auf einer Bedarfsbasis verworfen
und synthetisiert werden. Bei einem Zusammensetzungsvideosignal
können
ungefähr
20% der rohen digitalisierten Videoabtastwerte verworfen werden.
-
Bei einem S-Video ist der selektive
Speicherungslösungsansatz ähnlich,
außer
daß die
Bestimmung, welche Abtastwerte gespeichert werden müssen und
welche Abtastwerte verworfen werden können, komplizierter ist. Bei
dem S-Video liegen zwei Kanäle
von rohen digitalisierten Videoabtastwerten vor. Ein Kanal ist für das Y-Signal
und enthält
alle Luminanz- und horizontalen Synchronisierungs- und vertikalen
und horizontalen Austast-Informationen. Der andere Kanal ist für das C-Signal
und enthält
die Farbburst- und modulierten Chrominanz-Informationen. Beide Signale
werden bei viermal der Teilträgerfrequenzabtastrate
(4 FSC) abgetastet. Die Y-Kanal-Abtastwerte
werden selektiv auf dieselbe Weise gespeichert, wie oben für ein Zusammensetzungsvideosignal
beschrieben ist. Der C-Kanal enthält andererseits viel mehr redundante
Informationen, primär
weil die modulierten Chrominanz- und Farbburst-Informationen nur
einen schmalen Abschnitt des Frequenzspektrums einnehmen, der um
die Teilträgerfrequenz
zentriert ist. Somit müssen
nicht mehr als eine von vier der anfänglichen Sequenzen der Chrominanzabtastwerte
gehalten werden. Zusätzlich
dazu werden die Abtastwerte auf eine nicht einheitliche Weise gehalten.
Die Abtastwertverwerfungsstrategie für S-Video kann Speicherspeicherungsanforderungen
um bis zu 47% reduzieren.
-
Das bevorzugte Ausführungsbeispiel
ist in einem Videodrucksystem implementiert. Ein Videodrucksystem
umfaßt
eine Umwandlungs- und Speicherungs-Vorrichtung, eine Vorbetrachtungsüberwachungsvorrichtung,
einen Softwaredecodierer und eine Druckvorrichtung. Die Umwandlungsvorrichtung
wandelt das analoge Videosignal in rohe digitalisierte Videodaten
um. Ausgewählte
Teile der rohen digitalisierten Videodaten werden dann in dem Speicher
gespeichert. Rohe digitalisierte Videodaten, die einem gewünschten
Standvideobild entsprechen, werden dann in analoge Standvideobilddaten
zum vorbetrachten auf einem Vorbetrachtungsmonitor umgewandelt.
Sobald ein zufriedenstellendes Standvideobild zum Drucken identifiziert
wurde, verwendet der Softwaredecodierer Softwarealgorithmen, um
die entsprechenden rohen digitalisierten Videodaten in digitale
Bilddaten umzuwandeln, die durch eine Druckvorrichtung erkannt werden
können.
Die Druckvorrichtung verwendet dann die digitalen Bilddaten, um
ein Standbild zu drucken.
-
Ein Ausführungsbeispiel der vorliegenden
Erfindung wird nachfolgend ausschließlich beispielhaft beschrieben,
Bezug nehmend auf die beiliegenden Zeichnungen, in denen:
-
1 ein
Schema eines bevorzugten Ausführungsbeispiels
des Video-Erfassungs- und -Vorbetrachtungs-Systems ist.
-
2 ein
Funktionsblockdiagramm des Video-Erfassungsund -Vorbetrachtungs-Systems
aus 1 ist.
-
3 ein
Schema eines Ausführungsbeispiels
eines Video-Erfassungs- und -Vorbetrachtungs-Systems mit selektiver
Speicherungsfähigkeit
ist.
-
4 ein
Schema des Abtastmusters für
die aktive Region eines Chromfinanz-(C-) Kanals einer S-Videoquelle ist.
-
5 ein
Schema eines Ausführungsbeispiels
eines Zusammensetzungsvideo- und eines S-Video-Erfassungs- und -Vorbetrachtungs-Systems
mit selektiver Speicherungsfähigkeit
ist.
-
6 ein
Schema eines Videodrucksystems ist, das das Video-Erfassungs- und
-Vorbetrachtungs-System und die selektive Speicherung aus 5 einlagert.
-
Bei dem bevorzugten Ausführungsbeispiel
wird Bezug nehmend auf 1 und 2 ein analoges Videosignal
aus einer analogen Videosignalquelle 14 erzeugt, wie z.
B. einem Videokassettenspieler. Das analoge Videosignal wird stetig
durch einen Eingang 16 empfangen, der mit einem ersten
Wandler 18 verbunden ist. Der Wandler wandelt 50 das
eingehende analoge Videosignal in eine Reihe von rohen digitalisierten
Videodaten um, anstatt das analoge Videosignal in vollständig decodierte
digitale Bilddaten umzuwandeln.
-
Rohe digitalisierte Videodaten sind
einfach eine digitale Version eines analogen Videosignals. Das heißt, die
rohen digitalisierten Daten bestehen aus einzelnen Abtastwerten,
die in Intervallen genommen werden, die kurz genug sind im Vergleich
zu der Frequenz des abgetasteten analogen Signals, um eine genaue Darstellung
des abgetasteten analogen Signals zu erzeugen. Die rohen digitalisierten
Videodaten werden ferner decodiert, um digitale Bilddaten zu erzeugen,
die vollständige
Pixeldaten enthalten.
-
Die rohen digitalisierten Videodaten
werden in einem Speicher 22 gespeichert 52, bis
das entsprechende Bild für
eine Vorbetrachtung ausgewählt
ist. Um ein Bild für
eine Vorbetrachtung auszuwählen,
wird das analoge Videosignal zu einem Anzeigemonitor 30 geliefert,
gleichzeitig zu der Umwandlung der analogen Videodaten in rohe digitalisierte
Videodaten. Ein Benutzer, der den Anzeigemonitor betrachtet, wählt 54 ein Bild
des Videos aus, das der Benutzer als ein Standvideobild betrachten
möchte.
Die rohen digitalisierten Videodaten, die dem gewünschten
Standvideobild entsprechen, werden dann zurück von den rohen digitalisierten
Videodaten in ein analoges Videosignal umgewandelt 56. Das analoge
Signal wird dann zu dem Anzeigemonitor geliefert 58 und das gewünschte Standvideobild
wird zum Vorbetrachten auf dem Monitor angezeigt. Das Standvideobild
kann auf einer Feld-für-Feld-Basis
oder einer Rahmen-für-Rahmen-Basis betrachtet
werden.
-
Um ein Standvideobild auf einer Feld-für-Feld-Basis
oder einer Rahmen-für-Rahmen-Basis
zu erzeugen, werden die digitalisierten Videodaten zuerst durch
einen zweiten Wandler 26 verarbeitet. Die Rückumwandlung
von den rohen digitalisierten Videodaten in ein analoges Videosignal,
das ein Standbild darstellt, muß die
Tatsache berücksichtigen,
daß NTSC-
und PAL-Codierung sich leicht von Rahmen-für-Rahmen und Feld-für-Feld unterscheiden. Das Codieren
von NTSC unterscheidet sich mit einer Periodizität von vier Feldern, und das
Codieren von PAL unterscheidet sich mit einer Periodizität von acht
Feldern.
-
Bei NTSC werden sowohl die Chrominanzteilträger als
auch die Farbburstsignale in Phase um ¼ der Teilträgertaktperiode
(TSC) vorgeschoben, zwischen aufeinanderfolgenden
Feldern, relativ zu den horizontalen Synchronisierungs- und Basisbandsignalen.
Um den Phasenvorschub zu synthetisieren, müssen die aufgezeichneten Zusammensetzungsvideoabtastwerte
im Speicher um -¼ TSC (–1
Abtastperiode) verzögert
werden, um Feld 2 von Feld 1 zu erzeugen, um -½ TSC (–2
Abtastperioden), um Feld 3 von Feld 1 zu erzeugen,
und um +¼ TSC (1 Abtastperiode), um Feld 4 von
Feld 1 zu erzeugen. Auf diese Weise wird eine präzise Teilträgerzeitgebung
synthetisiert, während
ein Jitter von bis zu ½ TSC eingebracht wird. ½ TSC ist
gleich 140 Nanosekunden bei der Feld-für-Feld-Horizontalsynchronisationszeitgebung.
Obwohl das ½ TSC-Jitter zu einem Zusammensetzungssignal
führt,
das die Rundsende-NTSC-Spezifikationen nicht erfüllt, ist das Jitter bedeutend
kleiner als das, das bei typischen VCR-Laufwerken eingebracht wird.
-
Bei PAL ist die Situation ähnlich,
außer
daß die
Teilträgerphasenänderung
3/8 TSC zwischen aufeinanderfolgenden Feldern
ist. Daher müssen
die gespeicherten Abtastwerte um ganzzahlige Mehrfache von ½ der 4
FSC Taktperiode verschoben werden. Die einfachste
Weise, um solche Verschiebungen zu erreichen, ist das Alternieren
der Taktkante, an der der Abtastwert zu dem Digital-zu-Analog-Wandler
in aufeinanderfolgenden Feldern übertragen
wird.
-
Die obige Erörterung gilt für eine Situation,
in der der Abtasttakt eng an dem Farbteilträger phasenverriegelt ist. Bei
manchen Implementierungen kann ein asynchroner Abtasttakt verwendet
werden, der nicht an dem Farbteilträger phasenverriegelt ist. In
diesem Fall ist die obige Strategie zum Verzögern des Taktes, um die entsprechende
Verschiebung zu dem Teilträger
zu synthetisieren, nicht ausreichend, um sicherzustellen, daß die Anzeigevorrichtung
ein stabiles Teilträgersignal
empfängt.
Genauer gesagt beobachtet die Anzeigevorrichtung allgemein eine
scharfe Phasenverschiebung bei dem Farbteilträgersignal an jeder Feldgrenze.
Die scharfe Phasenverschiebung kann die Fähigkeit der Anzeigevorrichtung
nachteilig beeinträchtigen,
den korrekten Teilträgersignalverlauf
zu verriegeln, und daher die Qualität des angezeigten Bildes verringern.
-
Eine Möglichkeit zum Korrigieren des
Phasenverschiebungsproblems, wenn ein asynchroner Takt verwendet
wird, ist, die Phase der internen Teilträgerreferenz der Anzeigevorrichtung
Schritt für
Schritt in Reihe mit der Phase des tatsächlichen Teilträgersignals
zu bringen, das vorbetrachtet werden soll. Dies kann erreicht werden
durch Erzeugen geeigneter Farbburstinformationen während der
vertikalen Austastperioden. Farbburstinformationen können während der
vertikalen Austastperiode erzeugt werden, durch Extrahieren aufgezeichneter
Farbburstabtastwerte aus vorangehenden Zeilen in dem Feld unter
Verwendung eines geeigneten Algorithmus. Ein geeigneter Algorithmus
für NTSC-Signale
ist das Extrahieren von Farbburstinformationen aus einer Zeile in
dem Feld basierend auf dem Verhältnis
zwischen der Anzahl von Zeilen, in denen ein Farbburstsignal während der
vertikalen Austastperiode auftritt, und der Anzahl von aktiven Zeilen
in dem Feld.
-
Als ein Beispiel wird der Fall eines
NTSC-Signals betrachtet, für
das die Anzahl von aktiven Zeilen 240 ist, und die vertikale
Austastperiode aus entweder 22 oder 23 Zeilen besteht (abhängig von
dem Feld), von denen alle außer
neun Farbburstinformationen erfordern. Die erste vertikale Austastzeile,
die Farbburstaustastinformationen erfordert, würde diese Informationen von
Zeile 212 des aktiven aufgezeichneten Videosignals erhalten.
Die zweite würde
ihr Farbburstsignal von der Zeile 194 erhalten usw. Wie
oben erwähnt
wurde, bewegen sich die angezeigten Farbburstinformationen rückwärts durch
das Feld und der Vorwärtsvorschub
in der Phase des Abtasttakts im Hinblick auf den Farbteilträger wird
nicht durchgeführt.
-
Das Vorbetrachten analoger Videodaten,
ohne zuerst die Daten in digitale Bilddaten umzuwandeln, schließt die Implementierung
von manchen zusätzlichen
Vorbetrachtungsmerkmalen nicht aus. Das erste zusätzliche
Merkmal ist die Fähigkeit,
Textmeldungen auf die Videodaten zu überlagern, die auf einem Vorbetrachtungsmonitor
angezeigt werden, um einen Benutzer durch Entscheidungen zu führen, die
getroffen werden müssen,
um die Videodaten weiter zu manipulieren. Das Merkmal kann ohne
weiteres ohne Modifikationen an dem Vorbetrachtungssystem eingebracht
werden. Software wird verwendet, um Textinformationen über die
gespeicherten rohen digitalisierten Videodaten in dem Speicher zu
schreiben. Eine Sicherungskopie der gespeicherten rohen digitalisierten
Videodaten wird in dem Speicher für eine zukünftige Verwendung gehalten. Wenn
die Textüberlagerungen
klein sind, erfordert der Lösungsansatz
nur einen geringen Betrag an zusätzlichem
Speicher. Ferner können
die Textüberlagerungen
während
der vertikalen Austastperiode erzeugt werden, während die Vorbetrachtungsschaltungsanordnung
nicht auf den Speicher zugreift.
-
Ein zweites Vorbetrachtungsmerkmal
ist die Fähigkeit,
die Farberscheinung des Vorbetrachtungsbildes auf interaktive Weise
interaktiv anzupassen, die als Sättigung
oder Farbton bezeichnet wird. Wenn die rohen digitalisierten Videodaten
in dem Speicher aus einer S-Videoquelle erfaßt wurden, dann kann eine Sättigungsanpassung
einfach durch Skalieren der Chrominanzabtastwerte erreicht werden,
die zerstörungsfrei durch
Hardware in Echtzeit erreicht werden. Eine Farbtonverschiebung kann
mit ausreichender Genauigkeit für
Vorbetrachtungszwecke erreicht werden, durch Anwenden geeigneter
2 × 2-Drehungsmatrizen,
um Paare von Chrominanzabtastwerten anzupassen.
-
Leider existiert kein einfacher zerstörungsfreier
Lösungsansatz
für Farbanpassung,
wenn die Abtastwerte in dem Speicher aus einer Zusammensetzungsvideoquelle
erfaßt
wurden. Wenn eine Softwaredecodierung jedoch schließlich verwendet
wird, umfaßt
die erste Aufgabe des Softwaredecodierungsprozesses die Trennung
der Luminanz- und Chrominanzkomponenten eines Zusammensetzungsvideosignals.
Der Prozeß erzeugt
schließlich
ein S-Videosignal. Durch Durchführen
der Softwareaufgabe direkt nachdem der Benutzer das Feld oder den
Rahmen ausgewählt
hat, das/den der Benutzer drucken möchte, kann das Sättigungsanpaßmerkmal,
das oben für
S-Video erörtert
wurde, nach einer kurzen Verarbeitungsperiode verfügbar gemacht werden.
Unter Berücksichtigung,
daß die
meisten numerisch komplexen Aufgaben, die einer Softwaredecodierung
zugeordnet sind, jene der Zeitbasiswiedergewinnung und -wiederabtastung
sind, sollte eine Umwandlung von einer Zusammensetzungs- in eine
S-Videodarstellung nicht mehr als eine Sekunde oder zwei erfordern, abhängig von
dem Prozessorverhalten.
-
Während
das Decodieren durchgeführt
wird, sollte die Speicherbandbreite vollkommen für den Prozessor zweckgebunden
sein. Der Vorbetrachtungsmonitor kann mit einem synthetisierten
Videosignal während
des Decodierens getrieben werden.
-
Ein anderes Ausführungsbeispiel der Erfindung
ermöglicht
die selektive Speicherung der rohen digitalisierten Video daten,
die aus dem analogen Videosignal erzeugt werden. Der Lösungsansatz
der selektiven Speicherung unterscheidet sich für Zusammensetzungsvideo und
S-Video. Das Nachfolgende ist eine Beschreibung des Prozesses, der
verwendet wird, um zu bestimmen, welche Abtastdaten, die anderweitig
als rohe digitalisierte Videodaten bezeichnet werden, aus einem
abgetasteten analogen Videosignal vor der Speicherung verworfen
werden können.
-
Bezug nehmend auf 3 wird zuerst ein Zusammensetzungsvideosignal
betrachtet. Ein Zusammensetzungsvideo wird auf einem einzelnen Kanal
von einer analogen Videosignalquelle 70 übertragen.
Das Zusammensetzungsvideosignal besteht aus einem Basisbandsignal
mit einer Frequenz und einem Farbteilträgersignal mit einer unterschiedlichen
Farbteilträgerfrequenz.
Um das analoge Zusammensetzungsvideosignal in rohe digitalisierte
Daten umzuwandeln, wird das analoge Zusammensetzungsvideosignal üblicherweise
in den ersten Wandler 74 bei einer Rate von viermal der
Teilträgerfrequenz
(FSC) abgetastet. Ein großer Betrag von
Abtastdaten, die die vertikalen Austastinformationen, die horizontalen
Synchronisierungsinformationen, die horizontalen Austastinformationen
und die Farbburstinformationen des analogen Videosignals reflektieren, wird
erzeugt.
-
Die Datenabtastwerte werden dann
zu dem Speicherungsselektor 78 übermittelt. Der selektive Speicherungsprozeß beginnt
durch Identifizieren des wichtigsten Teils des Zusammensetzungsvideosignals.
Der wichtigste Teil des Zusammensetzungsvideosignals ist die aktive
Region. Die aktive Region des Signals ist der Abschnitt des Signals,
der tatsächlich
auf einem Monitor angezeigt ist, wie z. B. einem Fernseher. Bei
der Abtastrate von 4 FSC bietet ein NTSC-Signal 768 aktive
digitalisierte Videoabtastwerte auf jeder horizontalen Zeile, mit
ungefähr
240 horizontalen Zeilen pro Feld. Somit enthält jedes Feld 184.320 aktive
Abtastwerte. Der Gesamtbetrag von Abtastwerten in einem Feld wird
durch Teilen der Anzahl von Abtastwerten pro Sekunde durch die Anzahl
von Feldern pro Sekunde bestimmt:
-
-
Alle der Abtastwerte aus der aktiven
Region werden für
eine Speicherung in dem Speicher 82 ausgewählt. Zusätzlich zu
den Abtastwerten aus der aktiven Region jedes Feldes werden Abtastwerte,
die relevante Zeitgebungsinformationen enthalten, für eine Speicherung
ausgewählt.
Genauer gesagt werden Abtastwerte um die vorderen horizontalen Synchronisierungskanten
und einige oder alle der Farbburstabtastwerte bewahrt. Die verbleibenden
horizontalen Synchronisierungsabtastwerte werden verworfen und die
präzise
Position der vorderen horizontalen Synchronisierungskanten kann
später
nach Bedarf aus der geringen Anzahl von Abtastwerten bestimmt werden,
die gehalten wurden. Wenn der Abtasttakt an der Farbteilfrequenz
verriegelt ist, besteht kein Bedarf, die Farbburstabtastwerte zu
halten. Insgesamt können
zeitgebungsbezogene Informationen ungefähr zwischen 10 und 50 zusätzliche
Abtastwerte zu jeder horizontalen Zeile beitragen. Als ein Ergebnis
würde jedes
Feld zwischen 187 × 103 und 196 × 103 Abtastwerte
pro Feld aus potentiell 293 × 103 insgesamt pro Feld enthalten.
-
Bei der obigen Erörterung der selektiven Speicherung
für Zusammensetzungsvideoquellen
wird angenommen, daß der
Speicherungsselektor 78 in der Lage ist, die aktiven Videoabtastwerte
und die zugeordneten horizontalen Synchronisations- und Farbburstabtastwerte
auf jeder Zeile zu identifizieren. Zu diesem Zweck muß die Schaltungsanordnung
bereitgestellt sein, um die vordere Kante jedes horizontalen Synchronisationspulses
zu lokalisieren und um die vertikalen Austast- und Synchronisationsregionen
des Signals zu identifizieren. Sobald die horizontalen Synchroni sationspositionen
innerhalb einem oder zwei digitalisierten Abtastwerten bekannt sind,
können
die Farbburst- und die aktiven Videoregionen ebenfalls auf eine ähnliche
Genauigkeit abgeleitet werden. Einfache Techniken zum Erhalten solcher
groben Schätzungen
der Synchronisationspulspositionen sind bekannt und werden nicht
weiter erörtert.
Es ist wichtig, darauf hinzuweisen, daß genaue Synchronisationsinformationen
nicht verfügbar
sind, bis eine weitere Softwaredecodierung durchgeführt wird. Folglich
müssen
alle Vorbetrachtungsoperationen ohne genaue Synchronisierungsinformationen
arbeiten. Dies stellt keine Schwierigkeit dar, da eine Vorbetrachtung
einfach durch erneutes Abspielen gespeicherter Abtastwerte erreicht
wird, einschließlich
jener Abtastwerte, die aus der Umgebung der vorderen horizontalen
Synchronisationskanten aufgezeichnet werden.
-
Mit S-Video ist der selektive Speicherungslösungsansatz ähnlich,
außer
daß die
Bestimmung davon, welche Abtastwerte gespeichert werden müssen und
welche Abtastwerte verworfen werden können, komplizierter ist. Mit
S-Video liegen zwei Kanäle
von rohen digitalisierten Videoabtastwerten vor. Ein Kanal ist für das Y-Signal
und enthält
alle Luminanz- und horizontalen und vertikalen Zeitgebungsinformationen.
Der andere Kanal ist für
das C-Signal und enthält
die Farbburst- und modulierten Chrominanzinformationen. Beide diese Signale
werden bei viermal der Teilträgerfrequenz
(4 F
SC) abgetastet. Die Y-Kanalabtastwerte
werden selektiv auf die Weise gespeichert, die oben für ein Zusammensetzungsvideosignal
beschrieben ist, mit der Ausnahme, daß gehaltene Farbburstabtastwerte
aus dem C-Kanal erhalten werden. Der C-Kanal enthält andererseits viel
mehr redundante Informationen, primär weil die modulierten Chromfinanz-
und Farbburstinformationen nur einen schmalen Abschnitt des Frequenzspektrums
einnehmen, zentriert um die Teilträgerfrequenz. Die Teilträgerfrequenz
für ein
NTSC-Signal ist 3,5795 MHz. Das Chrominanzsignal, C(t), weist die
allgemeine Form auf:
wobei
I(t) und Q(t) die Basisbandchrominanzsignale darstellen. Obwohl
dies nicht ungedingt notwendig ist, ist es zweckmäßig anzunehmen,
daß der
Abtasttakt an dem Teilträgersignalverlauf
derart verriegelt ist, daß der n-te
Abtastwert bei der Zeit
auftritt. In diesem Fall
erfüllen
die Chrominanzabtastwerte, C[n], folgende Gleichung:
-
-
Somit liegen bis zu einem Vorzeichenwechsel
zwei versetzte 2 F
SC-Abtastungen der Basisbandchrominanzsignale
I(t) und Q(t) vor, nämlich
I[n] und Q[n]. Die Basisbandsignale weisen üblicherweise eine Bandbreite
von nicht mehr als ±6
MHz auf, unter der Annahme, daß I(t)
und Q(t) bei einer Rate von
oder
sogar weniger abgetastet werden können, ohne das Abtastungskriterium
von Nyquist zu brechen. Daher muß nicht mehr als eine von vier
der anfänglichen
Sequenz der Chrominanzabtastungen, C[n], für eine Speicherung in dem Speicher
ausgewählt
werden. Genauer gesagt müssen
nur die Abtastwerte I[4n] = C[8n] und Q[4n + 2] = C[8n + 5] gespeichert
werden. Der selektive Speicherungslösungsansatz bildet eine notwendigerweise
nicht einheitliche Dezimierung der Originalsequenz C[n].
-
Bezug nehmend auf 4 stellen die Punkte das Abtastmuster
des Chrominanzkanals dar. Die gefüllten Punkte 100 stellen
Abtastwerte dar, die dem Basisband-Q-Chrominanzsignal entsprechen, während die schraffierten
Punkte 104 Abtastwerte anzeigen, die dem Basisband-I-Chrominanzsignal
entsprechen. Die nichtschraffierten Punkte 102 zeigen Abtastwerte
an, die für
eine Speicherung nicht notwendig sind. Da Chrominanzabtastwerte
nur während
des aktiven Abschnitts des Videosignals gespeichert werden, trägt der effizient
abgetastete C-Kanal nur 46 × 103 Abtastwerte pro Videofeld bei.
-
Wenn die selektiven Speicherungsausführungsbeispiele
der Erfindung implementiert sind, erfordert eine Vorbetrachtung
der gespeicherten Videodaten zusätzliche
Operationen. 3 stellt
ein System dar, das einen Signalrekonstruierer 86 und einen
zweiten Wandler 90 und einen Monitor 94 umfaßt, die
für ein
Zusammensetzungsvideo verwendet werden können. 5 stellt ein System dar, das für Zusammensetzungsvideo und/oder
S-Video verwendet werden kann. Die Beschreibung der Operation bezieht
sich auf 5, obwohl das
System in 3 für ein Zusammensetzungsvideo
verwendet werden kann.
-
Bezug nehmend auf 5 verarbeitet der untere Weg entweder
ein Zusammensetzungsvideosignal oder die Luminanz-(Y-) Komponente
eines S-Videosignals. Der obere Weg trägt andererseits die Chromfinanz-(C-)
Komponente eines S-Videosignals
und ist auf Null gesetzt, wenn die analoge Signalquelle 110 ein Zusammensetzungsvideo
ist. Der erste Zusammensetzungs-/Luminanz-Wandler 132 und
der erste Chrominanzwandler 112 tasten die jeweiligen eingehenden
analogen Signale bei 4 FSC unter Verwendung
eines teilträgerver riegelten
Abtasttakts ab und wandeln dann die resultierenden Abtastdaten in
rohe digitalisierte Videodaten um. Der Zusammensetzungs-/Luminanz-Speicherungsselektor 130 und
der Chrominanzspeicherungsselektor 114 speichern dann selektiv
die rohen digitalisierten Videodaten unter Verwendung der oben beschriebenen
Techniken. Die Zusammensetzungs/Luminanz-Abtastwerte werden in dem
Speicher 128 gespeichert, nach dem Verwerfen aller außer den
aktiven digitalisierten Videoabtastwerten und einigen digitalisierten
Videoabtastwerten, die für
eine genaue Zeitgebungswiedergewinnung erforderlich sind. Die gespeicherten
Zusammensetzungs-/Luminanz-Abtastwerte erfordern ungefähr 190 kB
pro Feld, wenn jeder Abtastwert auf 8-Bit-Präzision digitalisiert ist. Die
Chrominanzabtastwerte werden in dem Fall von S-Video nicht-einheitlich
für eine
Speicherung in dem Speicher 116 ausgewählt. Die Chrominanzabtastwerte
nehmen zusätzlich
46 kB Speicher pro Feld ein. Sobald die gewünschten Videofelder in dem
Speicher gespeichert wurden, kann ein analoges Videosignal synthetisiert
werden, zum Vorbetrachten von Beliebigen der Felder auf einem Anzeigemonitor 122.
-
Wenn die gespeicherten Abtastwerte
einem Zusammensetzungsvideosignal entsprechen, dann muß der Zusammensetzungs/Luminanz-Signalrekonstruierer 126 die
nachfolgenden Operationen ausführen: Schritt
1 – Synthetisieren
geeigneter vertikaler Austastungs- und vertikaler Synchronisierungssignale
für das Zusammensetzungsvideosignal.
Schritt 2 – Rekonstruieren
jeder horizontalen Zeile der Zusammensetzungsvideoabtastwerte aus
den Abtastwerten, die in dem Speicher gespeichert sind. Bei diesem
Prozeß muß der Zusammensetzungs-/Luminanz-Signalrekonstruierer 126 jene
Abtastwerte synthetisieren, die während der selektiven Speicherung
verworfen wurden. Die verworfenen Abtastwerte entsprechen den horizontalen
Austastungsintervallen und der abfallenden Flanke des horizontalen
Synchronisierungspulses, wobei keine derselben schwierig zu synthetisieren
sind. Wenn keine Farbburstabtastwerte gespeichert wurden, dann müssen die Farbburstabtastwerte
ebenfalls synthetisiert werden, was ein einfacher Vorgang ist, da
eine teilträgerverriegelte
Abtastung sicherstellt, daß das
Farbburstsignal ein festes Muster ist, das sich alle vier Abtastwerte
wiederholt. Das rekonstruierte Zusammensetzungs-/Luminanz-Signal wird dann
in dem zweiten Zusammensetzungs-/Luminanz-Wandler 124 von digitalen in
analoge Daten umgewandelt.
-
Wenn die gespeicherten Abtastwerte
S-Video entsprechen, dann müssen
der Zusammensetzungs-/Luminanz-Signalrekonstruierer 126 und
der Chrominanzsignalrekonstruierer 118 die nachfolgenden Operationen
ausführen:
Schritt 1 – Synthetisieren
geeigneter vertikaler Austastungs- und vertikaler Synchronisierungssignale
für den
Luminanzkanal. Schritt 2 – Rekonstruieren
jeder horizontalen Zeile der Luminanzabtastwerte aus den Abtastwerten,
die in dem Speicher gespeichert sind. Bei diesem Prozeß muß der Zusammensetzungs/Luminanz-Signalrekonstruierer 126 jene
Abtastwerte synthetisieren, die während der selektiven Speicherung
verworfen wurden. Die verworfenen Abtastwerte entsprechen den horizontalen
Austastungsintervallen und der abfallenden Flanke des horizontalen
Synchronisierungspulses, wobei keine derselben schwierig zu synthetisieren
sind. Wenn keine Farbburstabtastwerte gespeichert wurden, müssen diese
auch synthetisiert werden, was ein einfacherer Vorgang ist, da ein
teilträgerverriegeltes
Abtasten sicherstellt, daß das
Farbburstsignal ein festes Muster ist, das sich alle vier Abtastwerte
wiederholt. Der einzige Fall, in dem Farbburstabtastwerte nicht
gespeichert werden, ist, wenn der Farbteilträger mit einem phasenverriegelten
Abtasttakt abgetastet wird. In dieser Situation können Farbburstabtastwerte
ohne weiteres synthetisiert werden. Wenn der Abtasttakt nicht phasenverriegelt
ist, dann müssen
die Farbburstabtastwerte gespeichert werden und die Farbburstabtastwerte
können
wieder aus dem Speicher abgespielt werden. Es ist jedoch nicht notwendig,
alle Farbburstabtastwerte zu speichern. Nur wenige Farbburstabtastwerte
müssen
gespeichert werden, und die verbleibenden Abtastwer te können durch
Wiederholen des festen Musters wiederhergestellt werden, das sich
alle vier Abtastwerte wiederholt. Schritt 3 – Interpolieren der verworfenen
Chrominanzkanalabtastwerte in dem Chrominanzsignalrekonstruierer 118.
Die volle Sequenz von Chrominanzabtastwerten C[n] wird rekonstruiert, durch
Interpolieren der Basisband-I[n]- und Q[n]-Signale und Umkehren der Polarität nach Bedarf.
Das rekonstruierte Chrominanzsignal wird dann in dem zweiten Chrominanzwandler 120 von
digitalen in analoge Daten umgewandelt. Die Chrominanzsignale können dann
direkt zu einem S-Videokompatiblen Monitor 122 geliefert werden,
wie in 5 gezeigt ist,
oder zu den Luminanzabtastwerten hinzugefügt werden, um ein wahres Zusammensetzungsvideosignal
zu erhalten, das geeignet für
eine Ausgabe an einen Zusammensetzungsvideo-kompatiblen Monitor
ist.
-
Wenn eine Textüberlagerung angewendet wird,
wo digitalisierte Videodaten selektiv gespeichert wurden, muß eine andere
Betrachtung zum Vorbetrachten in Betracht gezogen werden. Vor dem
Softwaredecodieren sind die exakten horizontalen Zeitgebungsinformationen
aus den rohen digitalisierten Videodaten nicht bekannt. Folglich
besteht eine gewisse Unsicherheit im Hinblick auf die Position von Überlagerungspixeln,
die zu gezackten Textkanten führen
kann. Das Problem wird ohne weiteres durch Speichern und Ersetzen
der erfaßten
horizontalen Synchronisierungsabtastwerte durch synthetische Synchronisierungsabtastwerte überwunden,
auf allen Zeilen, die Überlagerungstext
enthalten, und möglicherweise
einigen der umgebenden Zeilen. Auf diese Weise steuert der Textüberlagerungsalgorithmus
direkt die horizontale Zeitgebung des Vorbetrachtungsvideos in den
kritischen Regionen, so daß die
Textpixel perfekt aufgereiht sind. Eine Nebenwirkung dieses Lösungsansatzes
ist, daß die
zugrundeliegenden Vorbetrachtungspixel vielleicht nicht mehr perfekt
aufgereiht sind. Im wesentlichen überträgt diese Lösung den Effekt der gezackten
Kante von dem Überlagerungstext
auf das zugrundeliegende Vorbetrachtungsbild, überall wo der Text erscheint.
-
Obwohl die Erfindung auf andere Gebiete
angewendet werden kann, wird das bevorzugte Ausführungsbeispiel an ein Videodrucksystem
angewendet. 6 ist eine
Darstellung eines Videodrucksystems, das das bevorzugte Ausführungsbeispiel
einlagert. Bei dem bevorzugten Ausführungsbeispiel liegen NTSC-Zusammensetzungs-
und S-Video-Standards für
die analoge Videosignalquelle 150 vor. Die PAL-Zusammensetzungs-
und S-Video-Standards könnten
jedoch ebenfalls mit geringen Modifikationen verwendet werden.
-
Das Videodrucken bei dem bevorzugten
Ausführungsbeispiel
erfordert, daß drei
Hauptfunktionen ausgeführt
werden. Die erste Hauptfunktion umfaßt das Umwandeln des analogen
Videosignals in rohe digitalisierte Videodaten und das selektive
Speichern von Abschnitten der rohen digitalisierten Videodaten.
Die zweite Hauptfunktion umfaßt
das Vorbetrachten der eingehenden analogen Videodaten, ohne die
eingehenden analogen Videodaten in digitale Bilddaten umwandeln
zu müssen.
Die dritte Hauptfunktion umfaßt
das Verwenden von Software, um ausgewählte Abschnitte von rohen digitalisierten
Videodaten in komplette digitale Bilddaten umzuwandeln und dann
die digitalen Bilddaten zum Drucken zu verarbeiten.
-
Die erste Hauptfunktion des Umwandelns
des analogen Videosignals in rohe digitalisierte Videodaten und
das selektive Speichern von Abschnitten der rohen digitalisierten
Videodaten wird in einem ersten Wandler 152 und einem Datenspeicherungsselektor 154 ausgeführt. Die
Umwandlungs- und Speicherungsinformationen werden ausgeführt, wie
oben beschrieben ist. Sobald die Umwandlungs- und Speicherungsoperationen fertiggestellt
sind, werden die rohen digitalisierten Videodaten in dem Speicher 156 gespeichert.
-
Die zweite Hauptfunktion zum Vorbetrachten
der eingehenden analogen Videodaten, ohne die eingehenden analogen
Videodaten in digitale Bilddaten umwandeln zu müssen, wird durch eine Reihe
von Vorrichtungen ausgeführt.
Anfänglich
betrachtet ein Benutzer eine Videopräsentation auf dem Vorbetrachtungsmonitor 162.
An dem gewünschten
Punkt zeigt der Benutzer dem Videodrucksystem an, daß der Benutzer
ein bestimmtes Bild vorbetrachten möchte. Die rohen digitalisierten
Videodaten werden dann aus dem Speicher wiedergewonnen und durch
den Signalrekonstruierer 158 verarbeitet, unter Verwendung
der oben ausgeführten Techniken.
Die rekonstruierten rohen digitalisierten Videodaten werden dann
zu einem zweiten Wandler 160 gesendet, der die rohen digitalisierten
Videodaten in ein analoges Videosignal umwandelt, das dann auf dem Monitor 162 angezeigt
wird. Der Benutzer kann dann das Standvideobild vorbetrachten, um
zu bestimmen, ob der Benutzer das Standvideobild drucken möchte. Der
Benutzer kann durch mehrere Felder oder Rahmen gehen, bevor er entscheidet,
was er drucken möchte.
-
Die dritte Hauptfunktion, das Verwenden
von Software zum Umwandeln ausgewählter Abschnitte von rohen
digitalisierten Videodaten in vollständige digitale Bilddaten und
dann das Verarbeiten der digitalen Bilddaten zum Drucken wird außerhalb
des Erfassungs- und Vorbetrachtungs-Systems erreicht. Sobald ein
Standvideobild zum Drucken ausgewählt wurde, werden die rohen
digitalisierten Videodaten zu einem Softwaredecodierer 164 gesendet
und in ein digitales Bild unter Verwendung herkömmlicher Softwaredecodierungsalgorithmen
umgewandelt. Die erzeugten digitalen Bilddaten werden dann zu einem
Druckprozessor 166 gesendet, um für ein Drucken verarbeitet zu
werden. Der Druckprozessor verwendet herkömmliche Verarbeitungstechniken.
Sobald es verarbeitet wurde, wird das Bild zu einem Drucker 168 gesendet,
wo ein Druckkopiebild gedruckt wird.