WO2002023899A2 - Method for the discontinuous regulation and transmission of the luminance and/or chrominance component in digital image signal transmission - Google Patents

Method for the discontinuous regulation and transmission of the luminance and/or chrominance component in digital image signal transmission Download PDF

Info

Publication number
WO2002023899A2
WO2002023899A2 PCT/DE2001/003277 DE0103277W WO0223899A2 WO 2002023899 A2 WO2002023899 A2 WO 2002023899A2 DE 0103277 W DE0103277 W DE 0103277W WO 0223899 A2 WO0223899 A2 WO 0223899A2
Authority
WO
WIPO (PCT)
Prior art keywords
signal
transmission
color
value
video
Prior art date
Application number
PCT/DE2001/003277
Other languages
German (de)
French (fr)
Other versions
WO2002023899A3 (en
Inventor
Markus Hermsen
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to EP01971648A priority Critical patent/EP1319310A2/en
Publication of WO2002023899A2 publication Critical patent/WO2002023899A2/en
Publication of WO2002023899A3 publication Critical patent/WO2002023899A3/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/507Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction using conditional replenishment

Definitions

  • Bandwidth would have to be made available for the transmission.
  • the source code is used to filter out the data that is irrelevant or redundant for the subjective acoustic or optical perception, so that there is practically no or only an acceptably small difference to the original signal during the reconstruction.
  • this operation makes the signal more susceptible to interference.
  • appropriate error protection must be added for most transmission channels, which means that the amount of data increases again slightly.
  • the problem of data reduction is, on the one hand, to keep the bandwidth B and data rate R of the transmission signal as small as possible, on the other hand, only as many signal components may be eliminated in the source coding by filtering that the transmitted signal can be received without audible or visible impairments ,
  • a signal contains redundant information if it can be predicted by knowledge of the statistics of the news source. If, for example, two neighboring pixels correlate with one another, one speaks of spatial redundancy; for correlated color areas or frequency bands, one speaks of spectral redundancy. The similarity of two successive images is referred to as current redundancy.
  • the encoder can extract redundant information from the signal if it knows the source statistics. Apart from rounding errors, the signal can be fully reconfigured. be structured.
  • the entropy is a lower bound for the at best achievable average code word length.
  • the Huffman algorithm comes closest to this barrier.
  • the aim of the redundancy reduction is to reduce the data rate of the source by means of a transformation, so that an efficient entropy coding is possible.
  • the signal components that the eye or hearing cannot absorb due to the limited resolution are irrelevant and need not be taken into account in the coding, but they cannot be restored by the decoder.
  • losses caused by data reduction can only be measured and not subjectively. In real applications, however, it is unfortunately sometimes unavoidable to do without parts of the relevant and non-redundant information if acceptable compression factors are to be achieved.
  • Communication networks are also never error-free and thus disrupt the transmission, for example by falsifying individual bits or losing entire packets. This in turn has a disruptive effect, since the compressed video signal is particularly susceptible to errors because the local and temporal redundancy was previously removed. Last but not least, the unavoidable interference in the communication network is the cause of further problems in digital real-time transmission.
  • the performance provided by the communication network depends on various parameters such as data rate, delay, delay fluctuations and error probability, which are referred to as "Quality of Service” parameters (QoS parameters).
  • QoS parameters Quality of Service parameters
  • many of the existing networks do not guarantee the user specific limits for the QoS parameters, which means that these can change in an unpredictable manner.
  • B-ISDN over ATM in which the QoS parameters are signaled when a connection is established.
  • the "ideal" transmission requirements for digital video should be considered, ie the level of quality that the digital networks should provide.
  • the image quality perceived by the user should neither depend on the encoder or decoder nor on the transmission medium. However, this is not possible, because in practice these two factors produce a signal deterioration that occurs in addition to the limitations of recording storage (recorder) and display (display, monitor). Assuming that such a system can control video quality on a specific ooo n- P- -3 H ⁇ JU P- ir rt P. SD -SP ⁇ CD Hi Hi * J> ⁇ l ⁇ 0 ⁇ ! P- CD H rt P ⁇ P CD LQ r
  • P tT rr CD P. PH iJ tr tJ ⁇ H o N ⁇ P tr P ⁇ SD • 3 rr CQ ⁇ 0 P ra P- P CD er fT P- J iJ (-1- Pi ⁇ c-. P * P ⁇ -S M- NP ⁇ P- ⁇ CD CD ⁇ P. rr rr ⁇ ⁇
  • Hi ⁇ P ⁇ rt tr P o H rt -S ⁇ 4 3 ⁇ P Pi TJ Pi li tr P. ⁇ li CD SD SD SD o CQ 'ii ⁇ ⁇ P. ⁇ Hi LQ iJ H- SD LQ ⁇ ii ⁇ H- ii ⁇ tr P ⁇ NPP ⁇
  • H 0 p i P. ⁇ 3 H- P. iJ ü SD P- P t? H ⁇ 3 Hl 3 ⁇ ⁇ 0 P CD rt SD rr CQ ⁇ P ⁇ ⁇ (- CD CQ P ⁇ H- H- ⁇ 0 • O t Hi P- P. ⁇ rr ö p. P ⁇ 3
  • P- Mi ⁇ 0 N ⁇ Si CD P ⁇ H- - H- P 3 rr Hi ⁇ ⁇ ⁇ SD P ⁇ l iV rr rr P- CQ PCH rt ⁇ SD P H- PMP Hl ⁇ 0 P ii H tr tr P iJ ii ⁇ ⁇ i- ⁇ tr -> P ⁇ H- -> ⁇ SD rr ⁇ iJ IQ PP CD CQ P r- 1 SD rr ⁇ r
  • the total delay time is not so significant, so it is all the more important to ensure that there are no fluctuations in the absolute delay. Since every image and sound information must be presented to the user at a constant rate, any fluctuations must be compensated for before the display.
  • a video transmission system is responsible for ensuring that the video data passes from one end to the other.
  • the QoS refers to the service level provided by the transport system to the video application and is characterized by the bandwidth, the error rate and the delay.
  • the transport system can be divided into an underlying network and an end-to-end transport protocol. The latter improves the underlying network's QoS to meet the needs of the service. The complexity of this depends on the mismatch of the offered and desired QoS. If the network already meets the required conditions regarding QoS, it does not need another transport protocol. For example, within the Internet, TCP ("Transmission Control Protocol") is used as an end-to-end protocol in order to adapt the QoS provided by the network to that required by the applications. If resources for each sales reservation within a packet-switched network, it is possible to give guarantees for the maximum delay and minimum bandwidth (eg for B-ISDN over ATM).
  • the available data transfer rate has a significant impact on the quality of the encoded video data.
  • Current video coding methods are usually lossy, which means that important data is sometimes lost during coding and compression.
  • the average bit rate of the encoded data is generally proportional to the decoded display quality.
  • DCT discrete cosine transformation
  • MPEG1 and MPEG2 the quality loss occurs during quantization.
  • a coarser quantization leads to a poorer picture quality after decoding, but at the same time, a higher compression takes place and a lower data rate results.
  • the quantization resolution is a key parameter for controlling the video bit rate.
  • the communication networks encountered in practice falsify the data to be transmitted by changing or losing information. Even a relatively low error rate or very little data loss can have a serious impact on the decoded sequences. Compression algorithms remove much of the previously existing local and temporal redundancy in the signal, which leads to problems much more quickly if the encoded signal is corrupted (in Compared to falsification of the uncoded signal).
  • the quantized DCT coefficients are encoded with variable run length codes (VLCs) within a scan frame of coded MPEG video data. The decoder does not know the length of the current VLC from the start; if a VLC is now corrupted, it is possible that the decoder will incorrectly decode an entire sub-sequence.
  • VLCs variable run length codes
  • some data eg DCT coefficients and motion vectors in MPEG
  • DCT coefficients and motion vectors in MPEG are not encoded independently (I frames) but rather relative to previous (P frames) or even future (B frames) data.
  • an error in an I frame also leads to subsequent errors in dependent P and B frames.
  • markings are provided in the coded bit stream at regular intervals, which enable the decoder to be synchronized correctly. Such a mistake can have an impact across a frame until the next mark is reached.
  • Motion-compensated temporal prediction can cause the error to propagate both temporally and locally. Errors that affect an important point in the image or spread over several images are very obvious to a viewer. For this reason, an encoded video signal can only tolerate a very low error rate before the quality drops noticeably.
  • image and sound signals are already based in part on the psycho-optical or psycho-acoustic properties of humans.
  • important parameters such as refresh rate and resolution are designed that the eye receives the most natural possible image impression.
  • the most important aspects of the compression, transmission and decompression of image signals according to the current state of the art as well as the reception and processing of these signals in the eye of the beholder will be briefly discussed.
  • Luminance refers to the light energy that reaches the eye. A color with high energy leaves a bright impression, the same color with lower energy is felt darker. While chrominance defines the type of color and thus the wavelength of the radiation received, the color saturation provides information about the white value of a specific color. In the case of an absolutely pure color, i.e. radiation with only one wavelength (monochromatic light), the color saturation is 100%. With a pure color mixed halfway with white, it is only 50%.
  • the image or brightness information of a video signal is also referred to as a luminance or Y signal.
  • the different brightness values of an image are converted into analog or digital voltage values that appear in the video signal as changes in amplitude.
  • the color information of a video signal is expressed in the context of signal processing according to the PAL television standard by a brightness value (luminance), a color value (chrominance) and the color saturation. These three components must also be present when transmitting a color image.
  • a digital color image or video camera converts the colored light incident through the lens into three electrical signal voltages U R , U G and U B. These three signal voltages correspond to the red, green and blue components of the image. These signal voltages are referred to as RGB signals.
  • the components luminance, chrominance and color saturation are already included in the RGB signal.
  • the luminance signal is obtained according to the three-color theory from the RGB signal values, that is to say by additive superimposition of color signal components of the three primary colors of the additive color system. It is known from three-color theory that any visible color can be put together from the three primary colors by mixing colors.
  • IBK International Commission for Illumination
  • CIE Commission Internationale de l'Eclairage
  • the information for chrominance and color saturation is obtained by subtracting the signal voltage uj for the luminance value Y from the signal voltages U R l U G and U B of the RGB signal.
  • the three components red, green and blue are sufficient for image reproduction in the monitor of the receiver. It is therefore sufficient (if the Y signal is present) to transmit only two color values and the luminance value. In practice, therefore, only the two color difference signals RY and BY are transmitted in addition to the Y signal.
  • the color difference signal GY is not transmitted because it has the largest signal amplitude and therefore most influences the signal-to-noise ratio of the transmitted video signal.
  • the two color difference signals RY and BY are limited in their amplitude.
  • the limited R-Y signal is then also referred to as the V component, the limited B-Y signal as the U component.
  • the three primary colors red (R), green (G) and blue (B) can be recovered in the monitor of the receiver by adding the received Y component to the received one Color difference signals RY and BY added, i.e. executes the following matrix-vector multiplication:
  • the color green (G) results, for example, as
  • European PAL color television represents a further development of the American NTSC system.
  • the color information is transmitted with the aid of quadrature modulation, since only one high-frequency carrier signal is available due to the system, but two color information signals (RY and BY for the components V and U ) must be transmitted with the same carrier.
  • the color signal therefore consists of two modulated carrier vibrations that are 90 ° out of phase.
  • the V component is only modulated on the positive V axis. There is no alternating switching of the ink carrier phase to compensate for phase errors in this system. As a result, the NTSC system is more susceptible to phase errors in the transmission.
  • the color information B-Y (U) and R-Y (V) are modulated onto a carrier which - in order to avoid interference, save bandwidth and be compatible with the previous black and white television system - lies in the range of low spectral energy density of the luminance.
  • the audio signal is also modulated and placed at the top of the channel spectrum.
  • the process of digitizing is understood to mean the three steps of sampling (in compliance with the Shannon theorem to avoid aliasing effects), quantization and coding.
  • R - B - ⁇ «52 Mbit / s can transmit.
  • the analog RGB components are converted into the YUV color space by a linear matrix transformation, which reduces the spectral redundancy. Furthermore, the high frequencies are concentrated in the luminance component because the eye cannot resolve high chrominance frequencies so well. After low-pass filtering (to avoid aliasing effects), the chrominance components are subsampled horizontally and vertically by a factor of 2.
  • DCT discrete cosine transformation
  • the zeros are combined into a zero sequence.
  • the run length coding combines the number of zeros and the first next non-zero coefficient into a pair of numbers. These pairs are then huffman-coded by taking their probability of occurrence into account when assigning the code word lengths.
  • the combination of these two types of coding is very efficient with regard to the bit rate and approaches the entropy to an optimum.
  • M-JPEG (“Motion JPEG”) is not an actual standard, rather there are different methods of how the JPEG standard is applied to motion sequences. This is a pure intraframe coding, ie there are no cross-image algorithms for reducing the data rate.
  • the compression is carried out by an 8x8 DCT with closing quantization and run length coding.
  • M-JPEG is mainly used in the field of non-linear video editing and basically allows data rates from a few Mbit / s up to that of the uncompressed video signal.
  • Motion compensation can be done in three ways: (a) predicting the current image from the previous image, (b) predicting the current image from a future image, or (c) interpolating two adjacent images.
  • the prediction error (difference signal) is then compressed with the DCT by removing the spatial correlation and then quantizing it. In the end, the
  • Motion vectors are merged with the DCT information and encoded with a variable run length encoder. An optional error correction is then provided for the video data.
  • MPEGl is mainly used for the storage of video files on CD and in the home computer area on CD-ROM.
  • MPEG1 is used in the multimedia field with the storage medium CD at low data rates of R ⁇ 1.15 Mbit / s
  • the MPEG2 extension is used for the transmission of television signals using the interlaced method.
  • DPCM differential pulse code modulation
  • the predictor is a runtime element whose delay time corresponds to the sampling period ⁇ t of the digital signal; the prediction value is then the last sample value except for the quantization error.
  • An improvement in the prediction can be achieved if transversal filters are used as predictors, which form the predicted value as a weighted sum over several preceding samples.
  • the gain that can be achieved with DPCM transmission can be determined as follows: Given a Gaussian-distributed test component s (t) with a finite length and thus finite signal energy
  • PCM pulse code modulation
  • the quantization error performance can be increased by a factor
  • the useful signal power 5 a in DPCM is the same as in PCM, the signal-to-interference ratio 5 a / N q is also improved by 12 dB.
  • the automatic iris control consists of an electronic-mechanical control circuit that controls the aperture so that the image converter still outputs a medium luminance level.
  • the control signal for the actuator of the diaphragm is obtained from a feedback circuit which is driven by a DC voltage U s ⁇ ü ⁇ ⁇ which is proportional to the brightness.
  • Special requirements are placed on the ALC circuit. For example, spontaneous changes in brightness or strong contrasts in brightness within an image area must be compensated for as quickly as possible and without control oscillations.
  • the video cameras available on the market today carry out automatic brightness control and automatic white balance. Reduction of redundancy for the digital video signal to be transmitted, in the time domain by the sampled and quantized digital data signal
  • s (n) V ne IN 0 , ie s (n) e ⁇ 0, ..., 0, s 0 , s l7 ..., s n ,. , , , s N , 0, ..., ⁇ ,
  • a discrete cosine transform is generally used for coding and compression in connection with a run length or Huffman coding.
  • this method is not suitable for digital image signal processing because it causes a high load or even overload of the encoder and, despite run length and Huffman coding, causes a correspondingly high data transfer rate.
  • a further inadequacy is that the described method for transmitting differential signals at each sampling time n does not take into account the limited capabilities of a person's auditory or visual perception system for recording and processing acoustic or optical signals.
  • Differential signals the magnitude of which fall below a specific intensity difference ⁇ IJN or a specific frequency difference ⁇ fjN, cannot be perceived or processed by the human ear or face.
  • differential signals are also transmitted, which are superimposed by interference signals in the vicinity of the signal receiver and are therefore partially or completely covered and consequently cannot be perceived by the human ear or eye. It therefore makes no sense to send or send difference signals at every sampling time n received, since the human ear or the human sense of sight is not able to
  • the object of the present invention is therefore to improve the existing situation using technical means.
  • the invention is therefore primarily devoted to the task of providing a reliable, improved method for regulating the compression and coding or decompression and decoding for the transmission of digital or analog data signals, for example for video signals. In this way, the proportion of redundant or irrelevant information can be reduced and thus the data transmission rate R can be reduced.
  • the solution according to the invention is not limited to applications in the field of video transmission technology. It can also be used successfully when compressing audio signals. Since both video and audio signals have a large proportion of irrelevant or redundant information, these signal components can be omitted during transmission without the interference of the received signal due to the lack of important picture or. Sound components is perceived.
  • the present invention relates to a method for regulating signal components of at least one data signal (DS).
  • DS data signal
  • the data signal (DS) can be transmitted, for example, from a signal source (102) to a signal sink (111).
  • the signal source (102) can be, for example, a signal transmitter or a recording device for moving picture signals (television camera or video camera), and the signal sink (111) can be a receiving device for moving picture signals (monitor or display).
  • the regulation can take place with the aid of at least one digital correction signal c (n) (KS) at discrete points in time, depending on whether and when significant changes of individual components of the data signal (DS) are present on the transmission side.
  • KS digital correction signal
  • this method it is possible to neglect short-term interference peaks or dips in individual components in the data signal (DS) during transmission.
  • the data transmission rate R can be decisively reduced for the transmission path between signal transmitter (102) and signal receiver (111).
  • the data signal (DS) can be either an analog signal s ⁇ t) or a digital signal s (n), which is obtained after sampling (while adhering to the Shannon theorem) and quantization of the analog signal s ⁇ t) ,
  • the invention can be used, for example, as part of a method for compression and coding, transmission, and for decoding and decompression of digital signals s (n).
  • the signal components of the data signal (DS) can be transmitted discontinuously (that is, at discrete times at regular or irregular time intervals) as soon as new signal components are available on the transmission side.
  • Possible application examples of the present invention are, for example, the compressed transmission or storage of the luminance (Y) and / or chrominance signal components (Ü, V) of a digital video signal s (n) (DS) in digital image transmission systems or the compressed transmission or storage the volume (L) and frequency components (f) of audio signals s (n) (DS), for example in the hi-fi, multimedia or telecommunications sector, in particular for UMTS applications.
  • the signal transmitter, transmission path and signal receiver are localized in one device, such as for example when storing the luminance or chrominance of a recorded image sequence in video cameras (102).
  • the transmission signal (DS) is the digitized YUV signal, which is output at the output stage of the image sensor (102) after the RGB components have been converted into the YUV components.
  • the transmission signal corresponds to the compressed and encoded YUV signal recorded on a storage medium, for example a video cassette.
  • the received signal is the -RGB signal which is output on a screen or display (111) which can be integrated, for example, in the video camera (102) and which is obtained after conversion of the decoded and decompressed YC / y signal from the YUV to the RGB system.
  • DDS digital difference signal
  • the value of the signal change of at least one digital data signal s (n) (DS) is transmitted on the transmission side by forming the difference of the current sampling value s n + m at the time n + m versus one at an earlier time Time n sample s n formed on the transmission side is determined. 2.
  • the bit sequence of the current coded difference signal value is transmitted to at least one receiver at the sampling time n + m. 4. After the transmission time ⁇ tü has elapsed, the transmitted bit sequence for the transmission of the difference signal value ⁇ s n + m from the signal transmitter to the signal receiver is decoded on the receiving side at the sampling time n + m. 5.
  • the signed amount of the change in the signal value of the currently received difference signal value ⁇ s n + m is added to the corresponding signal component of the data signal sample s n output on the receiver side at the sampling time n at the sampling time n n for the reconstruction of the data signal sample s n + m . 6.
  • the transmission of the difference signal ⁇ s (n + -7., - ⁇ ?) (DDS) can be intervened in a targeted manner. These interventions can take place at discrete times, depending on whether and / or for how long there are changes in the data signal (DS) on the transmission side.
  • the correction signal c (n) (KS) is a constant which is determined as a mean luminance or chrominance value over all pixels of the digital image signal s (n) at a time n; in general, however, c (n) is a function f x of the uncorrected transmission signal s (n).
  • the corrected transmission signal s ⁇ orx (n) results as a function f 2 of the original transmission signal s (n) and this correction signal c (n).
  • the result is:
  • the digital difference signal (DDS) determined from s (n) is only transmitted if the data signal s ⁇ n) (DS) exceeds or exceeds at least one predefined point in time n at least one threshold value ⁇ ref suitable as a reaction level.
  • This threshold value ⁇ ref can ideally be set so that the change ⁇ s n + ra in the signal s (n) determined at the time of sampling (n + m) can just be registered by any person.
  • this delay time it can be waited until briefly persistent interference peaks in a recorded signal (for example in the case of a brief backlighting of an image object with a video camera) have subsided. In this way it can be avoided that, for example in the event of a brief overload or overexposure of individual frequency or image areas of a recorded audio or video signal, all frequency or image areas are reduced in intensity by using a control circuit.
  • the transmission of a new differential signal value becomes at the sampling time n + m ⁇ s n + m / ⁇ f n + m or ⁇ n + m compared to the sampling time n released. This ensures that only the signal changes that can be perceived by a human being are transmitted, transmitted and received.
  • the transmission of ⁇ n + m can be dispensed with, since the human perception system is unable to provide phase information ⁇ (t) or To register and process phase changes ⁇ (t) of analog optical or acoustic signals s (t).
  • a special embodiment of the invention is concerned with an application in the field of data transmission technology for video signals. It is based on the method described above for the transmission of difference images, which arise by subtracting the YUV components from the scan images s n + m and s n at the immediately or not immediately consecutive sampling times n and n + m.
  • the signal transmitter and the signal receiver must have suitable technical components for recording (eg video camera), intermediate storage (eg video recorder and video cassette) and playback of video signals (eg screen or display).
  • the signal transmitter with devices for Analog-to-digital conversion, compression and coding of analog video signals; the signal receiver should also be suitable for decoding, decompression and digital-analog conversion of digital video signals.
  • the channel capacity C of the transmission channel i.e. the product of bandwidth B and transmission bit rate R, should ideally be large enough to avoid so-called aliasing effects if the Shannon theorem is adhered to and to be able to transmit video signals in real time without any loss in playback quality.
  • Reference signal s ref (t) can be at least one luminance (Y re f) and / or chrominance value (U re f, V re t) of a predetermined video signal with which the samples of the luminance (Y) or Chrominance [U, V) of a received digital video signal s (n) are compared.
  • these difference images are transmitted discontinuously, provided that at least one suitably defined time, Y, U or V threshold value is exceeded. Image data are therefore only sent if the new scan image contains image areas with new information that is not irrelevant or non-redundant for the viewer.
  • the irrelevance or redundancy contained in the transmission signal and thus the data transmission rate can be decisively reduced in comparison to a periodically repeated transmission of the difference image.
  • a renewal of the current displayed image in the terminal of a receiver is only carried out for those image areas in which relevant changes in brightness, hue and / or color saturation are registered.
  • the threshold values Y re f, c7 ref and V ret can be determined from the brightness, hue and / or color saturation values of the pixels of the reference signal s re f.
  • Standardized procedures that are internationally recognized are used for subjective vision tests today to ensure the comparability of different measurement results.
  • Technical boundary conditions such as viewing distance, background lighting, the type of presentation of the test pictures and test sequences, the questions and the assessment procedure are clearly defined.
  • Such procedures are laid down in the form of recommendations from a group of experts from the "International Telecommunications Union" (ITU).
  • ITU International Telecommunications Union
  • the incident light intensity is determined by means of a photochemical reaction using two types of sensors, rods and cones.
  • the chopsticks are more sensitive, but do not differentiate between colors. To do this, they still work with very little light (night vision or skoptic vision).
  • the cones are responsible for stronger intensities (day vision or photopic vision), fine resolutions and color vision. For the latter process, they are divided into three different types, each with an absorption maximum at a different location within the visible spectrum (for red-orange, green and blue-violet).
  • the eye is able to process an enormously large brightness range (approx. 12 powers of ten), from the intensity of the starlight to the pain limit (glare).
  • the pupil can only regulate its diameter in a ratio of 4: 1, a very extensive adjustment to the average scene brightness at the receptor level of visual perception must take place, because it is neither possible to adjust the excitation frequency for the transmission impulses on the nerve fibers by a factor 10 9 - 10 10 to vary, it is still necessary in practice.
  • a much lower dynamic range is sufficient for daily use.
  • the dynamic range of the eye (with regard to the brightness information) comprises approximately two powers of ten.
  • the number of distinguishable brightness levels is in the range from about 150 to 250.
  • the amplification of this effect also depends on the existing lighting: If the contrast between the targeted area and the background is small, stronger overall lighting increases the perceived area brightness and the contrast decreases. Conversely, if the contrast is large, the area appears darker when the lighting is stronger.
  • the second effect occurs with an abrupt change in brightness and is responsible for making the contrast appear sharper than it really is.
  • an area with large constant brightness the perceived brightness of an adjacent area with lower (but also constant) brightness.
  • the phenomenon responsible for these two effects is known as lateral inhibition and can be modeled in relation to the spatial frequency response of the eye as a high-pass filter, which has a significantly reduced sensitivity to areas with constant or slightly changing brightness and the targeted determination of sharp edges (for Example, the outline of an object).
  • the psycho-optical properties can be used to determine the threshold values for the smallest perceptible luminance ( ⁇ Yj or chrominance change ⁇ AU ⁇ / AV J ) of the received video signal as a function of the lighting conditions in the surroundings of the image signal generator, which are characterized by (Y, U, V) env of human eyesight with regard to the amplitude and / or frequency modulation threshold, the perceptible frequency group width ⁇ f G and the effects caused by the masking of useful radiation by interference radiation are evaluated.
  • ⁇ Yj or chrominance change ⁇ AU ⁇ / AV J the threshold values for the smallest perceptible luminance ( ⁇ Yj or chrominance change ⁇ AU ⁇ / AV J ) of the received video signal as a function of the lighting conditions in the surroundings of the image signal generator, which are characterized by (Y, U, V) env of human eyesight with regard to the amplitude and / or frequency modulation threshold, the perceptible frequency group width ⁇ f G
  • This fact can be used to define masking functions on the basis of weighted derivatives of the brightness distribution within an area comprising a few pixels. These can be used to optimize the quantization process of coding systems by prediction.
  • chrominance ⁇ / JN J ⁇ VJN
  • color saturation fluctuations of a stationary received signal are the thresholds for sinusoidal amplitude and / or frequency modulation (AM or FM) for monochromatic or for broadband test radiation information.
  • An amplitude or brightness modulation threshold is understood to mean the value of the amplitude modulation degree m for which the amplitude-modulated received signal begins to differ visibly in the case of sequential presentation. Analogously one understands a quenz- or chromaticity modulation threshold that value of
  • Modulated cosine gratings for luminance (Y), for chrominance (U, V) and for color saturation can be used as the basis for vision tests.
  • the individual modulation transfer function (MÜF) can be seen directly as a psycho-optical limit of visibility of the cosine grating depending on the distance between the monitor and the viewer.
  • MÜF modulation transfer function
  • a test person displays the points at which the cosine gratings can just be recognized by a test person and connects them with polygons.
  • the middle limit at which test persons can just barely recognize the lattice shape of the cosine-shaped modulation, marks an MTF.
  • MTF MTF
  • These measurement curves can be found for all color values that can be displayed on a monitor. All measurement curves have a clearly recognizable bandpass characteristic of the human face.
  • a special exemplary embodiment of the present invention can be used to carry out the white balance of video signals s (n), in which luminance (Y), chrominance (U, V) and / or color saturation of the moving images recorded by a video camera can be regulated depending on the lighting conditions in the vicinity of the video camera.
  • C denotes the speed of light propagation in a vacuum; their value is approximately
  • Light with a large wavelength (near ⁇ m ax) appears to the human eye as red, with a short one Wavelength (near ⁇ m i n ) as violet.
  • White light contains all light waves occurring in the visible spectral range. This can be checked if, for example, white sunlight is resolved into its spectral components using an optical system (prism).
  • the sunlight perceived as white consists of innumerable individual color components that are only put together to form an overall color impression in the eye of the beholder.
  • the sensitivity curve of the eye has a global maximum with green light and a strictly monotonically falling sensitivity towards violet and red radiation. If there are no electromagnetic rays, that is, if all wavelengths of the visible spectrum are absorbed by a body, the human eye perceives the color black.
  • the color impression perceived by the eye is not only determined by the wavelength of radiation, but also by the light and lighting conditions in the area. For example, the red color of an opposing tands different in the sun than in a darkened one
  • the sensitivity of the human face is influenced by the adaptation of the eyes to the existing lighting conditions in the area.
  • the constant h is Planck's constant; it has the value h «6.62-10 " 34 Ws 2.
  • the ambient light therefore plays an important role in the recording of an object with a color camera.
  • the color impression left by an object is also influenced by the ambient brightness, ie the color of an object can only be objectively achieved with constant intensity of the ambient light determine.
  • a Planck radiator is an absolutely black body with a degree of absorption of 100%, which emits photons after being heated. The spectral diagram of this light depends exclusively on the temperature up to which the black body is heated. For this reason we speak of the "color temperature” of light.
  • the color temperature of the light is identical to the heat temperature of the black body, and it is called the absolute temperature T x in Kelvin (K) specified. Even at a relatively low temperature of T ⁇ «1,000 K, the emitted light appears reddish.
  • the color temperature of a light source is determined by comparison with the light of the heated black body. If, for example, the black body is heated to a temperature of Ti «3,200 K and the light from this body corresponds to the light of a radiant incandescent lamp, the light emitted by the filament of the lamp also has a color temperature of 2 ⁇ « 3,200 K. The comparison of different
  • the recorded white object now has a color temperature of T x «3,200 K, which means a shift in the color impression towards the red spectrum.
  • the cameraman on the other hand, always sees the object glowing white because the human brain has a color memory.
  • the object shown on the monitor only takes on a white color again when the camera is readjusted to the ambient light.
  • the camera In order to ensure that a white object - recorded at different color temperatures of the ambient light - always appears white on the monitor, the camera must be able to compensate for the color temperature. Such compensation is referred to as white balance or white balance adjustment.
  • the white balance can be one
  • Camera can be done by three different methods:
  • the color temperature T ⁇ of a light source is sometimes also expressed by the calculation variable M x ("Micro Reciprocal Degrees", MIRED) with the unit ⁇ rd, which is the reciprocal of the color temperature multiplied by 10 6 , results:
  • AM M 2 -M x : correction value (in ⁇ rd),
  • T x given color temperature of the light source (in K),
  • T 2 set color temperature of the camera
  • ⁇ M - H-100 / -rd
  • AM 100 ⁇ rd.
  • Such a filter is also referred to as a WlO filter.
  • the letter in the filter designation indicates whether the color temperature of the camera T 2 should be reduced (C) or increased (W). The number after the letter indicates the conversion value in tenths of a ⁇ rd.
  • the colors of the video image generated by a video camera should always reflect the original color impression of the recording scene, regardless of the color temperature of the scene lighting. To meet this requirement, the camera must be set so that a white object is always shown in white.
  • This adaptation to the color temperature of the scene lighting is referred to in video technology as a white balance or white balance setting.
  • video cameras are set so that a white object recorded at a color temperature of T »3,200 K (standard light source) is also imaged as a white object. Whenever the color temperature deviates from this standard value, the white balance of the camera must be changed until the object recorded in white is shown in white again.
  • T »3,200 K standard light source
  • the white balance setting affects the amplification of light in the red and blue signal processing. It becomes clear that this has to be the case if one considers that with a change in color temperature according to higher values (ie with higher color temperature T x of a light source) the blue component, with a change in color temperature after lower values (ie with lower color temperature T x) a light source) the red component of the light coming in through the lens increases.
  • Most of the video cameras available today have the option of automatic white balance adjustment. It is sufficient to pick up a white object and briefly press an "Auto White” or "Auto White Adjust” button.
  • ATD auto white tracking
  • the AWT control the spectral distribution of the scene lighting is constantly measured by its own sensor, the AWT sensor.
  • the AWT sensor is located close to the lens.
  • the AWT sensor itself consists of individual photodiodes, each of which receives the incident light via a red,
  • the transmission-side switchover to the data signal sample value S n + k can take place immediately after a predetermined delay time ⁇ t v has elapsed and / or after at least one suitably defined threshold value ⁇ re f has been exceeded or fallen short of.
  • This "hard" switchover ensures that the signal receiver reacts quickly to changed signal values. If the capacity C of the transmission channel is large enough and the transmission time ⁇ t ü is short enough, relevant changes As (n + m, m) of the signal s (n) can reach the signal receiver almost in real time.
  • the transmission-side switchover to the data signal sample value s n + k can alternatively also gradually after the elapse of a predetermined delay time ⁇ t v and / or after the over or Falling below at least one suitably defined threshold value ⁇ ref .
  • an interpolation method can be used, for example, which brings about a smooth, smooth transition to the new signal value s n + k over several sampling periods.
  • This "gentle" switchover can ensure that the human perception system is not overwhelmed by a sudden sharp increase in the received signal intensity, for example by noise due to a booming loud noise or by glare due to a bright light or is damaged. For example, when loud loud acoustic signals suddenly appear via headphones, permanent hearing damage can easily occur.
  • smooth transitions in the received signal intensity can enable the human perception system to slowly get used to the changed signal values, so that there is a risk of damage of human sensory cells can be reduced by a sudden increase in the received signal intensity.
  • the signal component of the data signal (DS) regulated by using this method can be, for example, a chrominance signal (U, V).
  • U, V chrominance signal
  • the signal component of the data signal (DS) regulated by the use of this method can be, for example, a luminance signal (Y).
  • Y luminance signal
  • FIG. 1 shows a block diagram to illustrate the signal transmission from a signal transmitter to a signal receiver in the case of moving picture sequences as a transmission signal
  • FIG. 2 shows a flow chart to illustrate the determination, evaluation and transmission of the difference signal ⁇ s (n + -7., - ⁇ ) with the delay time ⁇ t v ,
  • FIG. 5 shows two cases for a significantly increasing or decreasing signal (ie s (n) ⁇ const.)
  • 6 shows a case for a significantly increasing and decreasing signal (ie s (n) ⁇ const.)
  • the delay time ⁇ t v between the measurements #i and # (i +) of the signal s (n) the sampling times n and n + k 6 shows a case for a significantly increasing and decreasing signal (ie s (n) ⁇ const.
  • Figure 7 each a special case for the assumption of a persistent amount of the signal s (n) of the signal duration
  • FIG. 8 each a special case for the assumption of a significant amount of the signal s (n) (ie
  • FIG. 1 shows the signal transmission chain from the signal transmitter to a signal receiver, which consists of a transmission branch, a transmission channel and a reception branch.
  • the signal to be transmitted is a moving image sequence (101) which was recorded by an analog video camera (102).
  • the analog output signal s (t) of the video camera (102) is fed to the input of a module (103) which carries out a brightness control (HR) or a white balance (WA) for the analog transmission signal s (t) performs. This can ensure that brief spikes or dips and / or insignificant signal changes in the transmission signal s (t) are not transmitted.
  • the module (103) can be integrated, for example, as a microchip in the video camera (102). After scanning and Quantization of the analog transmit signal s (t) by the analog-digital converter (104) produces the digital transmit signal at its output
  • component 104 can be dispensed with.
  • channel coding can also be carried out here. If the signal ⁇ s (j - + - 7i, . ⁇ ?) Is to be transmitted via the air interface, it must first be modulated onto an analog high-frequency carrier signal with the aid of a modulator (106).
  • the transmission channel is analog in this case and can be modeled by adding (107) a white Gaussian noise signal r (t)
  • the difference signal As (n + m, m) at the output of the demodulator (108) can be completely in the signal receiver and be reconstructed without errors. If the difference signal ⁇ s (n + -? ⁇ , -77) is not via the air interface, but Transfer wired, components 106, 107 and 108 in the outlined signal transmission chain are omitted.
  • the transmission channel ie the conductive connection between the transmitter-side encoder (105) and the receiver-side decoder (109), is then digital.
  • the moving image sequence can be displayed on a screen or a display (111) and perceived by the eye of an observer (112). If a digital screen or a digital display is used instead of an analog screen or an analog display, then component 110 can be dispensed with.
  • FIG. 2 shows the flow of the determination, evaluation and transmission of the difference signal As (n + m, m) with the delay time ⁇ t v according to the invention in a flow chart.
  • a digital signal s (n) is present, which is obtained by sampling with the sampling period ⁇ t while observing the Shannon theorem
  • a signal is carried out on the signal transmitter side first measurement (measurement #i) and storage of the current signal value of s ⁇ n) at the sampling time n (step 202).
  • the difference signal ⁇ s (n + m, m) to be transmitted is generally regarded as the signed difference of the m sampling times delayed useful signal s ⁇ n + m) compared to the original signal s in) measured in the signal transmitter according to the regulation
  • the signal change ⁇ s + k to be transmitted at the time n + k is accordingly according to the formula
  • a query (step 107) is used to test whether there are already two samples of the signal s (n) at a distance m that can be compared with one another. If at least two samples of the original signal s ⁇ n) were waited for, the following applies
  • the amount of the distance between the upper amplitude threshold + S ref / V2 and the lower amplitude threshold -S r e f / -? be with in the following
  • a query is used to test whether the above inequalities (*) apply or not. If they apply ("yes” case), the difference signal value ⁇ si + can be transmitted from the signal transmitter to the signal receiver at the sampling time n + k. Otherwise, a return is made to step 103 ("No" case).
  • the sample value of the difference signal .DELTA.si + obtained with the correct sign is added to the last available sample value Si of the signal s in) in order to obtain the signal value at the sampling time n + k
  • Si + k Si + ⁇ si + k
  • FIG. 3 an example consisting of three figures shows how the difference signals ⁇ s (n + -7?, - ⁇ .) be communicated.
  • the analog signal voltage s ⁇ t) is considered as the output signal, the instantaneous amplitude of which, for example, indicates a value proportional to the instantaneous brightness or volume of a recorded image or sound signal.
  • the useful signal is available in digital form s ⁇ n) as shown in Figure 2.
  • Threshold value S ref / xj ⁇ 2 exceeds.
  • Threshold +5 ref / v2 is coming.
  • the signal s (n) assumes values during this period for which
  • Video camera as a signal recorder for recording moving picture sequences with the analog output signal s (t) as a transmission signal

Abstract

The invention relates to a method for regulating signal components of at least one data signal (DS) which is transmitted from a signal source (102) to a signal sink (111). The transmission takes place at discrete times according to whether and when there are changes in the data signal (DS) at the transmission end. A special example of embodiment of the invention comprises a method for automatic adjustment of the luminance, chrominance and/or colour saturation values in digital image transmission systems for video signals, for example in the television or multimedia fields. The invention is based on a method for transmitting differential images which are produced by subtraction of the YUV components of frames at scanning times which follow each other in time. According to the invention, these differential images are transmitted at irregular intervals at discrete points in time provided at least one suitably established time, Y, U or V threshold value is exceeded. This provides a means of considerably reducing the redundancy in the transmission signal and therefore, the data transmission rates compared to a periodically repeated differential image transmission.

Description

Beschreibungdescription
Verfahren zur diskontinuierlichen Regelung und Übertragung der Luminanz- und/oder Chrominanzkomponente in der digitalen BildsignalübertragungProcess for the discontinuous control and transmission of the luminance and / or chrominance components in digital image signal transmission
A. Schilderung des allgemeinen ProblemsA. Description of the general problem
Die digitale Übertragung von Audio- und Videosignalen wird in der heutigen Zeit immer wichtiger. Sei es, dass im Vergleich zu bisherigen analogen Übertragungen bei gleicher Qualität mehr Programme übertragen werden sollen oder bei gleicher Anzahl Kanäle eine höhere Qualität geboten werden soll, die Lösung heißt digitale Übertragung. Dabei wird zuerst eine Da- tenreduktion durchgeführt, weil sonst eine viel zu großeThe digital transmission of audio and video signals is becoming increasingly important today. Be it that compared to previous analogue transmissions with the same quality, more programs should be transmitted or a higher quality should be offered with the same number of channels, the solution is called digital transmission. Data is reduced first, because otherwise it is much too large
Bandbreite für die Übertragung zur Verfügung gestellt werden müsste. Im Rahmen einer Quellenkodierung werden zu diesem Zweck die für die subjektive akustische bzw. optische Wahrnehmung irrelevanten bzw. redundanten Daten weggefiltert, so dass bei der Rekonstruktion praktisch kein oder nur ein akzeptierbar kleiner Unterschied zum Originalsignal entsteht. Allerdings wird durch diese Operation das Signal anfälliger für Störungen. Deshalb muss für die meisten Übertragungskanäle ein entsprechender Fehlerschutz hinzugefügt werden, wo- durch die Datenmenge wieder leicht größer wird. Das Problem der Datenreduktion besteht einerseits darin, die Bandbreite B und Datenrate R des Übertragungssignals so klein wie möglich zu halten, andererseits dürfen bei der Quellenkodierung nur so viele Signalanteile durch Filterung eliminiert werden, dass das übertragene Signal ohne hörbare bzw. sichtbare Beeinträchtigungen empfangen werden kann.Bandwidth would have to be made available for the transmission. For this purpose, the source code is used to filter out the data that is irrelevant or redundant for the subjective acoustic or optical perception, so that there is practically no or only an acceptably small difference to the original signal during the reconstruction. However, this operation makes the signal more susceptible to interference. For this reason, appropriate error protection must be added for most transmission channels, which means that the amount of data increases again slightly. The problem of data reduction is, on the one hand, to keep the bandwidth B and data rate R of the transmission signal as small as possible, on the other hand, only as many signal components may be eliminated in the source coding by filtering that the transmitted signal can be received without audible or visible impairments ,
Die subjektiv nicht oder kaum wahrnehmbare Reduktion irrelevanter bzw. redundanter Signalanteile kann durch eine ge- schickte Ausnutzung gewisser psychooptischer und psychoakus- tischer Effekte erreicht werden. Zum Teil werden einige dieser Effekte bereits im Bereich der Quellenkodierung ausgenutzt. In der Optik sind das unter anderem die folgenden Effekte :The subjectively not or hardly noticeable reduction of irrelevant or redundant signal components can be skilfully exploited by certain psycho-optical and psycho-acoustic effects can be achieved. Some of these effects are already being used in the area of source coding. In terms of optics, these include the following effects:
• Mach-Effekt: Kontrastübergänge an Kanten werden vom menschlichen Auge verstärkt wahrgenommen.• Mach effect: contrast transitions on edges are perceived more intensely by the human eye.
• Oblique-Effekt : In der Natur sind überwiegend horizontale und vertikale Strukturen anzutreffen. Der Mensch ist deshalb bei der Orientierung weniger auf diagonale Strukturen angewiesen. Letztere können also bei der Kodierung rudimentär behandelt werden.• Oblique effect: Horizontal and vertical structures are predominantly found in nature. People are therefore less dependent on diagonal structures for orientation. The latter can therefore be treated rudimentary in the coding.
• Flächenintegration: Je grösser eine einfarbige Fläche ist, desto genauer können Färb- und Helligkeitswerte aufgelöst werden - das Auge kann "integrieren". Der Kodierer muss also große Flächen (das heißt kleine Ortsfrequenzen Ωx bzw. Ω2 im zweidimensionalen Ortsraum) genauer quantisie- ren als kleine.• Surface integration: The larger a single-colored surface is, the more precisely color and brightness values can be resolved - the eye can "integrate". The encoder must therefore quantize large areas (ie small spatial frequencies Ω x or Ω 2 in two-dimensional spatial space) more precisely than small ones.
Da akustische bzw. optische Signale über einen hohen Anteil irrelevanter bzw. redundanter Information verfügen, kann bei dieser Art von Signalen eine Quellenkodierung erfolgreich eingesetzt werden. Ein Signal enthält redundante Information, wenn diese durch Kenntnisse der Statistik der Nachrichtenquelle vorhersagbar ist. Wenn etwa zwei benachbarte Bildpunkte untereinander korrelieren, spricht man von räumlicher Redundanz , bei korrelierenden Farbflächen oder Frequenzbän- dern von spektraler Redundanz . Die Ähnlichkeit zweier aufeinander folgender Bilder wird als zei tliche Redundanz bezeichnet. Der Kodierer kann dem Signal redundante Information entziehen, wenn er die Quellenstatistik kennt. Das Signal kann - abgesehen von Rundungsfehlern - wieder vollständig rekon- struiert werden. Die Redundanz R (X) eines digitalen Signals, das durch die Bitfolge X : = [xι \ 0<=i<=M- l } mit den Datenbits xιe{θ;l} repräsentiert wird, liefert also keine zusätzliche Information, ist aber unter Umständen zur Absicherung der Nutzinformation vorteilhaft. Zur Ermöglichung von Algorithmen zur Fehlererkennung und/oder Fehlerkorrektur für ein übertragenes Datensignal ist beispielsweise redundante Information in Form von Paritätsbits und Prüfsummen notwendig.Since acoustic or optical signals have a high proportion of irrelevant or redundant information, source coding can be used successfully with this type of signal. A signal contains redundant information if it can be predicted by knowledge of the statistics of the news source. If, for example, two neighboring pixels correlate with one another, one speaks of spatial redundancy; for correlated color areas or frequency bands, one speaks of spectral redundancy. The similarity of two successive images is referred to as current redundancy. The encoder can extract redundant information from the signal if it knows the source statistics. Apart from rounding errors, the signal can be fully reconfigured. be structured. The redundancy R (X) of a digital signal, which is represented by the bit sequence X: = [xι \ 0 <= i <= M- l} with the data bits xιe {θ; l}, does not therefore provide any additional information, but it is under certain circumstances advantageous for securing the useful information. To enable algorithms for error detection and / or error correction for a transmitted data signal, redundant information in the form of parity bits and checksums, for example, is necessary.
Ein Maß für den Informationsgehalt eines digitalen Signals, das durch die Bitfolge X : = { i | 0<=i<=M-l} mit den Datenbits xιe{θ;l} repräsentiert wird, ist die Entropie H(X) des Signals . Die Entropie ist dabei eine untere Schranke für die bestenfalls erreichbare durchschnittliche Kodewort1änge . Der Huffman-Algorithmus kommt dieser Schranke am nächsten. DasA measure of the information content of a digital signal, which is determined by the bit sequence X: = {i | 0 <= i <= M-l} is represented with the data bits xιe {θ; l}, the entropy H (X) of the signal. The entropy is a lower bound for the at best achievable average code word length. The Huffman algorithm comes closest to this barrier. The
Ziel der Redundanzreduktion ist, mittels einer Transformation die Datenrate der Quelle zu verringern, so dass eine effiziente Entropiekodierung möglich wird. Die Signalanteile, die das Auge bzw. das Gehör auf Grund des beschränkten Auflö- sungsVermögens nicht aufnehmen kann, sind irrelevant und brauchen bei der Kodierung nicht berücksichtigt zu werden, sie sind allerdings durch den Dekodierer nicht wiederherstellbar. Auch hier trifft man auf räumliche, spektrale und zei tliche Irrelevanz . Idealerweise sind Verluste, die durch Datenreduktion entstehen, nur messtechnisch und nicht subjektiv erfassbar. In realen Anwendungen jedoch ist es manchmal leider nicht vermeidbar, auch auf Teile der relevanten und nicht-redundanten Information zu verzichten, wenn akzeptable Kompressionsfaktoren erreicht werden sollen. Das grundlegende Problem ist also, dass zur Zeit keine vollständige Reduktion irrelevanter bzw. redundanter Daten betrieben werden kann, ohne dass bei der Signalübertragung auch für eine optimale Empfangsqualität relevante und nicht-redundante Signalanteile vernachlässigt werden müssen. Die digitale Echtzeitübertragung von Audio- und Videodaten stellt bisher noch nicht dagewesene Anforderungen an die Rechenleistung von Prozessoren und die Eigenschaften der Ü- bertragungsnetze, und es müssen verschiedene Aufgaben gelöst werden, bevor eine befriedigende Lösung weitverbreitet verfügbar wird. Digitales Video stellt dabei bei weitem die höchsten Ansprüche an die Übertragung: Es braucht eine große Bandbreite, es muss mit minimaler Verzögerung übertragen wer- den und toleriert keine hohe Fehlerrate. Auch nach der Komprimierung und Kodierung benötigt eine Videoübertragung in Broadcastqualität immer noch eine Datenrate von R = 4 Mbit/s bis 10 MBit/s ; das ist eine unannehmbar hohe Datenrate für die heute verfügbaren lokalen Netze (LANs) und die meisten größeren Netze (WANs) . Verzögerungen bei Videodaten sind deshalb kritisch, weil die Einzelbilder mit einer Bildwiederhol- frequenz von a = 25 (bzw. 30) Bilder/s dargestellt werden müssen. Die digitale Echtzeitübertragung von breitbandigen Signalen bringt also das Problem mit sich, dass einerseits die heute verfügbaren Netze die erforderliche hohe Datenrate nicht bereitstellen können, andererseits aber wegen der gewünschten hohen Signalqualität eine notwendige Mindestdaten- rate nicht unterschritten werden darf, insbesondere bei der Übertragung digitaler Bildsequenzen im Multimediabereich.The aim of the redundancy reduction is to reduce the data rate of the source by means of a transformation, so that an efficient entropy coding is possible. The signal components that the eye or hearing cannot absorb due to the limited resolution are irrelevant and need not be taken into account in the coding, but they cannot be restored by the decoder. Here too one encounters spatial, spectral and temporal irrelevance. Ideally, losses caused by data reduction can only be measured and not subjectively. In real applications, however, it is unfortunately sometimes unavoidable to do without parts of the relevant and non-redundant information if acceptable compression factors are to be achieved. The fundamental problem is therefore that at the moment it is not possible to operate a complete reduction of irrelevant or redundant data without having to neglect relevant and non-redundant signal components during signal transmission for optimal reception quality. The real-time digital transmission of audio and video data places unprecedented demands on the computing power of processors and the properties of the transmission networks, and various tasks have to be solved before a satisfactory solution becomes widely available. Digital video places by far the highest demands on transmission: it requires a large bandwidth, it must be transmitted with minimal delay and does not tolerate a high error rate. Even after compression and encoding, broadcast-quality video transmission still requires a data rate of R = 4 Mbit / s to 10 Mbit / s; this is an unacceptably high data rate for the local area networks (LANs) and most larger networks (WANs) available today. Delays in video data are critical because the individual images must be displayed with a refresh rate of a = 25 (or 30) images / s. The real-time digital transmission of broadband signals therefore has the problem that, on the one hand, the networks available today cannot provide the required high data rate, but on the other hand, because of the desired high signal quality, the required minimum data rate must not be undercut, especially when transmitting digital image sequences in the multimedia field.
Echtzeitübertragungen von Videosignalen vertragen insbesondere keine Schwankungen der absoluten Verzögerungszeit der einzelnen Abtastbilder (engl.: "Frames"), wie sie aber bei den meisten verfügbaren Netzen üblicherweise auftreten, was ein weiteres Problem darstellt.Real-time transmissions of video signals in particular do not tolerate fluctuations in the absolute delay time of the individual scanning images ("frames"), as they usually occur in most of the available networks, which is a further problem.
Kommunikationsnetze sind außerdem nie fehlerfrei und stören so die Übertragung, indem zum Beispiel einzelne Bits verfälscht werden oder ganze Pakete verloren gehen. Das wirkt sich wiederum störend aus, da das komprimierte Videosignal auf Fehler besonders anfällig ist, weil die örtliche und zeitliche Redundanz zuvor entfernt wurde. Nicht zuletzt sind die unvermeidbaren Störungen im Kommunikationsnetz Ursache für weitere Probleme bei der digitalen Echtzeitübertragung.Communication networks are also never error-free and thus disrupt the transmission, for example by falsifying individual bits or losing entire packets. This in turn has a disruptive effect, since the compressed video signal is particularly susceptible to errors because the local and temporal redundancy was previously removed. Last but not least, the unavoidable interference in the communication network is the cause of further problems in digital real-time transmission.
Die vom Kommunikationsnetz zur Verfügung gestellte Leistung hängt von verschiedenen Parametern wie Datenrate, Verzögerung, Verzögerungsschwankungen und Fehlerwahrscheinlichkeit ab, die als "Quality of Service" -Parameter (QoS-Parameter) bezeichnet werden. Viele der bestehenden Netze garantieren dem Benutzer aber keine bestimmten Grenzen für die QoS-Parameter, was bedeutet, dass diese sich in unvorhersehbarer Weise ändern können. (Eine Ausnahme ist z.B. B-ISDN über ATM, bei dem bei Verbindungsaufbau die QoS-Parameter signalisiert werden.) Um einen zuverlässigen und effektiven Videokommunikationsdienst über diverse Netze anbieten zu können, ist es wichtig, die QoS-Anforderungen von kodierten Videosignalen zu kennen. Nachfolgend werden einige wichtige Aspekte in diesem Zusammenhang herausgestellt, die zeigen, dass es nicht mög- lieh ist, alle Anforderungen zu erfüllen, da sie sich zum Teil widersprechen.The performance provided by the communication network depends on various parameters such as data rate, delay, delay fluctuations and error probability, which are referred to as "Quality of Service" parameters (QoS parameters). However, many of the existing networks do not guarantee the user specific limits for the QoS parameters, which means that these can change in an unpredictable manner. (An exception is e.g. B-ISDN over ATM, in which the QoS parameters are signaled when a connection is established.) In order to be able to offer a reliable and effective video communication service via various networks, it is important to know the QoS requirements of coded video signals. In the following, some important aspects in this context are highlighted, which show that it is not possible to meet all the requirements because some of them contradict each other.
Zuerst sollen daher die "idealen" Übertragungsanforderungen für digitales Video betrachtet werden, also die Höhe der Qualitätsstufe, die die digitalen Netze zur Verfügung stellen sollen.First, the "ideal" transmission requirements for digital video should be considered, ie the level of quality that the digital networks should provide.
In einem idealen digitalen VideokommunikationsSystem sollte die vom Benutzer wahrgenommene Bildqualität weder vom Kodie- rer bzw. Dekodierer noch vom Übertragungsmedium abhängen. Das ist jedoch nicht möglich, da diese beiden Faktoren in der Praxis eine Signalverschlechterung erzeugen, die zusätzlich zu den Begrenzungen von Aufnahmespeicherung (Rekorder) und Darstellung (Display, Monitor) auftreten. Unter der Annahme, dass ein solches System die Videoqualität auf einer bestimm- o o o n- P- -3 H <J U P- i-r rt P. SD -S P φ CD Hi Hi *J >τl 0 <! P- CD H rt P Φ P CD LQ rIn an ideal digital video communication system, the image quality perceived by the user should neither depend on the encoder or decoder nor on the transmission medium. However, this is not possible, because in practice these two factors produce a signal deterioration that occurs in addition to the limitations of recording storage (recorder) and display (display, monitor). Assuming that such a system can control video quality on a specific ooo n- P- -3 H <JU P- ir rt P. SD -SP φ CD Hi Hi * J> τl 0 <! P- CD H rt P Φ P CD LQ r
P Φ P 0 P- P- SD H SD c SD Φ P H- Φ M P= φ φ -: SD 0 3 Ω P. p. P P- φ rr P ΦP Φ P 0 P- P- SD H SD c SD Φ P H- Φ M P = φ φ -: SD 0 3 Ω P. p. P P- φ rr P Φ
P LQ i-J i-J Φ φ -> SD t Ω tr H P. P tr P H tr tr K t P tr φ SD Pi P P Φ P PP LQ i-J i-J Φ φ -> SD t Ω tr H P. P tr P H tr tr K t P tr φ SD Pi P P Φ P P
• σ ?f CQ n rt LQ φ t n m φ K. ω (- P Φ « P1 SD LQ φ LQ• σ? F CQ n rt LQ φ tnm φ K. ω (- P Φ «P 1 SD LQ φ LQ
Φ 0 CD H < rt Φ P f ω Ω -S 1-5 ω H Φ Φ 3 rr CD 0 φ P P. to CD toΦ 0 CD H <rt Φ P f ω Ω -S 1-5 ω H Φ Φ 3 rr CD 0 φ P P. to CD to
C-l P- 3 N O Φ φ P i-J tr Ω tr H- LQ "\ H H SD φ rt 3 Ω Φ P P- tr er P- rt φ P- 3 Φ tr ü LQ <i Φ t H CQ H SD t *^ P o= 3 tr H LQ Φ Φ ra Φ SD PCl P- 3 NO Φ φ P iJ tr Ω tr H- LQ "\ HH SD φ rt 3 Ω Φ P P- tr er P- rt φ P- 3 Φ tr ü LQ <i Φ t H CQ H SD t * ^ P o = 3 tr H LQ Φ Φ ra Φ SD P
P- Φ P H- rt N tu φ SD Φ Φ W Φ 0 P σi O φ H P rt -3 CD p. rr P HiP- Φ P H- rt N tu φ SD Φ Φ W Φ 0 P σi O φ H P rt -3 CD p. rr P Hi
Φ 3 ΓT N 0= P- tr O H P H- Ω er iP & Hi Pi fi < rt Φ P Φ Φ P < Φ Φ φ Φ fö P- Φ LQ H1 φ (-li CD ω P PJ P φ CD φ Φ H- Ω P P- ü P- φ P- P 3 P liΦ 3 ΓT N 0 = P- tr OHP H- Ω er iP & Hi Pi fi <rt Φ P Φ Φ P <Φ Φ φ Φ fö P- Φ LQ H 1 φ (-li CD ω PP J P φ CD φ Φ H- Ω P P- ü P- φ P- P 3 P li
C P- ?ϊ* P. P- Φ P- D Φ C rt H rr CD φ P i l l ω • P. i P CD rr P. rr N SD SDC P-? Ϊ * P. P- Φ P- D Φ C rt H rr CD φ P ill ω • P. i P CD rr P. rr N SD SD
Φ Ω φ rt H φ o H Ω SD h1- φ rt P Φ ^-^ P — Φ SD P Φ N Φ Φ P SD PΦ Ω φ rt H φ o H Ω SD h 1 - φ rt P Φ ^ - ^ P - Φ SD P Φ N Φ Φ P SD P
P t-T rr CD P. P H i-J t-r tJ Ω H o= N ω P tr P < SD • 3 rr CQ Φ 0 P ra P- P CD er fT P- J i-J (-1- Pi Φ c-. P* P ι-S M- N P Φ P- Φ CD CD Λ P. rr rr Ω ΦP tT rr CD P. PH iJ tr tJ Ω H o = N ω P tr P <SD • 3 rr CQ Φ 0 P ra P- P CD er fT P- J iJ (-1- Pi Φ c-. P * P ι-S M- NP Φ P- Φ CD CD Λ P. rr rr Ω Φ
0 0 ω rt LQ SD Φ P- φ P Φ SD N -S H H α fd 0 P O P Φ SD SD= tr er0 0 ω rt LQ SD Φ P- φ P Φ SD N -S H H α fd 0 P O P Φ SD SD = tr er
P- 0 3 <: Φ P H φ rt LQ P P P CD CQ SD SD P ^-- SD P er N o LQ CD i-J P- CD CD i P. Hl & 0. H- Ω - . ra P CD N < a ra Φ rt Φ P- t P? P. rt tr φ ,-— -. rt CD ≤ ö P- -S SD P= Φ rt Φ Ω t-i P tr CD r P o *• p IS3 Φ -3 rt P- tr SD SD H- CD tr H h H tr ~--, rt 3 Ω * P- Φ li rr CD D P PP- 0 3 <: Φ PH φ rt LQ PPP CD CQ SD SD P ^ - SD P er N o LQ CD iJ P- CD CD i P. Hl & 0. H- Ω -. ra P CD N <a ra Φ rt Φ P- t P? P. rt tr φ, -— -. rt CD ≤ ö P- -S SD P = Φ rt Φ Ω t- i P tr CD r P o * • p IS3 Φ -3 rt P- tr SD SD H- CD tr H h H tr ~ -, rt 3 Ω * P- Φ li rr CD DPP
3 • 3 P- H Φ rt CD i CD Φ • φ Φ D IΛJ φ Φ Φ φ tr CD CQ i (D= -3 Φ SD CD CD3 • 3 P- H Φ rt CD i CD Φ • φ Φ D IΛJ φ Φ Φ φ tr CD CQ i (D = -3 Φ SD CD CD
Φ w ω CD Φ φ i^ P- Φ Pi H rt P- P o H- Ω 3_ P Φ r Φ Φ Φ rr P- P- tr rt oΦ w ω CD Φ φ i ^ P- Φ Pi H rt P- P o H- Ω 3_ P Φ r Φ Φ Φ rr P- P- tr rt o
H φ • P- φ i-J t? P. s! Φ Ω Φ P W CD P Φ P P- tr p. P tr SD -> - P- P- P. P i-J *J f H- 3 H- P tr CD φ rt -• Ω 3 P p, t-T • SD= P i-J < CD P- φ Φ CD M Φ Φ H — 3 Φ tr SD Φ CD SD P P rt rtH φ • P- φ i-J t? P. s! Φ Ω Φ P W CD P Φ P P- tr p. P tr SD -> - P- P- P. P iJ * J f H- 3 H- P tr CD φ rt - • Ω 3 P p, tT • SD = P iJ <CD P- φ Φ CD M Φ Φ H - 3 Φ tr SD Φ CD SD PP rt rt
P- Φ P- rt CQ -3 tr P. Ω H- CD PJ ?f tr H ffi -> P. ^-, P -S P P H LQ ΦP- Φ P- rt CQ -3 tr P. Ω H- CD P J ? F tr H ffi -> P. ^ -, P -SPPH LQ Φ
O P. P- P- !-r i-J H rt -S 2! D CD Φ P H- P N Hi P- φ P LQ P P- CD tr -3 φ tr rt Ω Φ ; Φ Φ P- Φ tr H- H- P to Ω li P CQ Φ i LQ Φ αO P. P- P-! -R i-J H rt -S 2! D CD Φ P H- P N Hi P- φ P LQ P P- CD tr -3 φ tr rt Ω Φ; Φ Φ P- Φ tr H- H- P to Ω li P CQ Φ i LQ Φ α
Φ SD 0 φ SD i H rt H- < 0 H CD H. P Φ Ω P LQ ~—- tr Ω 3 H ; rr <i SD -S P- P- tr rt CD l-1 rt P H- !-J H- 3 Φ H- p. P P tr N Φ Φ tr P 0 -— 0 P P- < P ΦΦ SD 0 φ SD i H rt H- <0 H CD H. P Φ Ω P LQ ~ —- tr Ω 3 H; rr <i SD -S P- P- tr rt CD l- 1 rt P H-! -J H- 3 Φ H- p. PP tr N Φ Φ tr P 0 -— 0 P P- <P Φ
< ^ Φ 0 φ P- - 0 φ P. Ω rt Φ P H td P Pi 3 Hi p. o ra σ .<^ Φ 0 φ P- - 0 φ P. Ω rt Φ P H td P Pi 3 Hi p. o ra σ.
Φ i-J P1 i-J 3 LQ i-J i-J Φ t •fl tr Φ < tr Φ < < φ P. P- SD ?r 3 φ n Φ Φ P. Φ p. o Φ H CD H- Φ SD P H- SD H- Φ P- Φ tr 3 Pi t i tr Hi φ H P- H- <1 fr rt SD φ Φ ra H, Φ P LQ CD H CD < H tr 0 P- P- to P P=Φ iJ P 1 iJ 3 LQ iJ iJ Φ t • fl tr Φ <tr Φ <<φ P. P- SD? R 3 φ n Φ Φ P. Φ p. o Φ H CD H- Φ SD P H- SD H- Φ P- Φ tr 3 Pi ti tr Hi φ H P- H- <1 fr rt SD φ Φ ra H, Φ P LQ CD H CD <H tr 0 P- P- to PP =
0= o H P- Φ 3 0 0 H 3 H- SD -1 P H- P -1 Xi 0 rt P : 3 φ Ω N W tr0 = o H P- Φ 3 0 0 H 3 H- SD - 1 P H- P - 1 Xi 0 rt P: 3 φ Ω NW tr
CQ P CD P. ] i-J 3 SD Φ P H Φ ω P Ct. Φ Φ o P- P Φ P Φ tr φ Φ Φ φ SD P- φ SD CD t ) 3 Ω ω CD Φ P Cd φ H H φ Q P 3 x P ii HCQ P CD P.] i-J 3 SD Φ P H Φ ω P Ct. Φ Φ o P- P Φ P Φ tr φ Φ Φ φ SD P- φ SD CD t) 3 Ω ω CD Φ P Cd φ H H φ Q P 3 x P ii H
H H Φ tr O t P- H- Ά s-; tr •Tj CD H- C H- H rr Φ •r. <! Φ rr O Φ φ P-H H Φ tr O t P- H- Ά s-; tr • Tj CD H- C H- H rr Φ • r. <! Φ rr O Φ φ P-
P Φ — Φ rt Ω φ i-J rt y φ •x] 0 l-i Φ P φ P- P SD 3 P- P Φ P.P Φ - Φ rt Ω φ iJ rt y φ • x] 0 l- i Φ P φ P- P SD 3 P- P Φ P.
P i-J • P. O tr P. t H- Φ H- tr (- s: Pi tu CD φ i tr Pi P φ rt P- 3 P-P iJ • P. O tr P. t H- Φ H- tr (- s: Pi tu CD φ i tr Pi P φ rt P- 3 P-
IQ Φ i-J H ?r H P H- Ω φ H- H- Φ s; P Φ Φ P P φIQ Φ i-J H? R H P H- Ω φ H- H- Φ s; P Φ Φ P P φ
<J H P Pi SD 3 φ SD -3 Φ 3 tr P H ,— . H1 tr SD 0 H φ 0 P rr ? tr CD<JHP Pi SD 3 φ SD -3 Φ 3 tr PH, -. H 1 tr SD 0 H φ 0 P rr? tr CD
Hi Φ P< rt tr P o= H rt -S φ 4 3 Φ P Pi TJ Pi li tr P. Ω li CD SD SD SD o CQ ' ii Φ Φ P. Φ Hi LQ i-J H- SD LQ Φ i-i ^ H- ii φ tr P Φ N P P ΦHi Φ P <rt tr P o = H rt -S φ 4 3 Φ P Pi TJ Pi li tr P. Ω li CD SD SD SD o CQ 'ii Φ Φ P. Φ Hi LQ iJ H- SD LQ Φ ii ^ H- ii φ tr P Φ NPP Φ
53* N SD i-J P- P- 0 tr 0 H Φ ? SD P Φ P H Λ P Φ P rr CD53 * N SD iJ P- P- 0 tr 0 H Φ? SD P Φ PH Λ P Φ P rr CD
H 0= pi P. φ 3 H- P. i-J ü SD P- P t? H Φ 3 Hl 3 Φ ω 0 P CD rt SD rr CQ φ P< φ Ω (-- CD CQ P φ H- H- φ 0 O t Hi P- P. Φ rr ö p. P Φ 3H 0 = p i P. φ 3 H- P. iJ ü SD P- P t? H Φ 3 Hl 3 Φ ω 0 P CD rt SD rr CQ φ P <φ Ω (- CD CQ P φ H- H- φ 0 O t Hi P- P. Φ rr ö p. P Φ 3
Φ H t Ω φ t-r i-T H CD Φ ω H -S P tr P — - i Hl 3 Φ rr Φ P SD SD Φ P rtΦ H t Ω φ t-r i-T H CD Φ ω H -S P tr P - - i Hl 3 Φ rr Φ P SD SD Φ P rt
N H 2 Φ Φ p, li CD Ω *< P - SD N Φ Φ 3 H- P tr Hi li N P rr li (--. Pi ΦN H 2 Φ Φ p, li CD Ω * <P - SD N Φ Φ 3 H- P tr Hi li N P rr li (-. Pi Φ
P Φ P- ra Φ rt tr CD 0 Φ tr Φ rt P SD SD P P φ Pi Φ P-P Φ P- ra Φ rt tr CD 0 Φ tr Φ rt P SD SD P P φ Pi Φ P-
P P- SD ö H rt 3 H- H- H h-1 H P rt P- LQ CQ tr <! ? P CQ <! φ = ϊ*. LQ CO P. 3 SD φ ? P- φ 3 CD P LQ Hi H- IQ Hi H- (- ra Φ Φ Φ Pi p. N 0 trP P- SD ö H rt 3 H- H- H h- 1 HP rt P- LQ CQ tr <! ? P CQ <! φ = ϊ *. LQ CO P. 3 SD φ? P- φ 3 CD P LQ Hi H- IQ Hi H- (- ra Φ Φ Φ Pi p. N 0 tr
0 φ Φ Φ rt H H- 3 Φ rt Φ φ Φ Hi H, rt 0 H- CD Φ i P- Φ SD φ 3 Pi φ0 φ Φ Φ rt H H- 3 Φ rt Φ φ Φ Hi H, rt 0 H- CD Φ i P- Φ SD φ 3 Pi φ
3 i-J H < CD P- Φ Φ P P tr Hi 0 H P Ω ^ Φ li P CD et P SD H3 i-J H <CD P- Φ Φ P P tr Hi 0 H P Ω ^ Φ li P CD et P SD H
3 CD Φ rt φ H- CD Φ 03 o rt tτö H- tr ra P- P Φ Φ φ 3 li rr fu 0 N H φ t P3 CD Φ rt φ H- CD Φ 03 o rt tτö H- tr ra P- P Φ Φ φ 3 li rr fu 0 N H φ t P
P p M -3 N l-i 0 tr= 0 e CD H- 3 Φ φ rr rt rt P- CDP p M -3 N l- i 0 tr = 0 e CD H- 3 Φ φ rr rt rt P- CD
P LQ 3 H φ P rt C SD φ φ P rt < ? P 0 CQ ü tr P- 3 Φ SDP LQ 3 H φ P rt C SD φ φ P rt <? P 0 CQ ü tr P- 3 Φ SD
P- Mi φ 0= N φ Si CD P Φ H- - H- P 3 rr Hi Φ Φ Φ SD P Φ l iV rr rr P- CQ P C H rt Φ SD P H- P M P Hl Φ 0 P ii H tr tr P i-J ii Φ Φ i- Φ tr -> P φ H- -> Φ SD rr Φ i-J IQ P P CD CQ P r-1 SD rr Φ r P- Mi φ 0 = N φ Si CD P Φ H- - H- P 3 rr Hi Φ Φ Φ SD P Φ l iV rr rr P- CQ PCH rt Φ SD P H- PMP Hl Φ 0 P ii H tr tr P iJ ii Φ Φ i- Φ tr -> P φ H- -> Φ SD rr Φ iJ IQ PP CD CQ P r- 1 SD rr Φ r
tionsschwierigkeiten. Zum Beispiel wird eine normale Unterhaltung sehr schwierig, wenn die Verzögerung Δtv = 300 ms ü- berschreitet . Wenn zusätzlich der Ton dem Bild vor- oder nacheilt, verliert der Benutzer die Synchronisation (z.B. die Lippensynchronisation beim Reden) . Für viele verwendete oder sich in Planung befindliche Videodienste (Video on De and, Homeshopping etc.) ist es wichtig, dass keine merkliche Verzögerung zwischen den Steuerbefehlen des Benutzers und der Reaktion des Dienstes auftritt.tion difficulties. For example, normal conversation becomes very difficult when the delay exceeds Δt v = 300 ms. If the sound additionally leads or lags the picture, the user loses the synchronization (eg the lip synchronization when talking). For many video services used or in the planning stage (video on de and, home shopping etc.), it is important that there is no noticeable delay between the control commands of the user and the reaction of the service.
Bei Einwegübertragungen (z.B. digitales Satellitenfernsehen) ist die Gesamtverzögerungszeit nicht so bedeutend, umso mehr muss darauf geachtet werden, dass keine Schwankungen der absoluten Verzögerung auftreten. Da jede Bild- und Toninfor- mation dem Anwender mit einer konstanten Rate präsentiert werden muss, müssen eventuelle Schwankungen vor der Darstellung ausgeglichen werden.In the case of one-way transmissions (e.g. digital satellite television), the total delay time is not so significant, so it is all the more important to ensure that there are no fluctuations in the absolute delay. Since every image and sound information must be presented to the user at a constant rate, any fluctuations must be compensated for before the display.
Ein Videoübertragungssystem ist dafür verantwortlich, dass die Videodaten von einem Ende bis zum anderen gelangen. Der QoS bezieht sich auf die Dienstebene, die der Videoanwendung vom Transportsystem zur Verfügung gestellt wird und ist gekennzeichnet durch die Bandbreite, die Fehlerrate und die Verzögerung. Das Transportsystem kann begrifflich in ein un- terliegendes Netzwerk und ein Ende-zu-Ende Transportprotokoll aufgeteilt werden. Letzteres verbessert den QoS des unterliegenden Netzwerks, um den Ansprüchen des Dienstes zu genügen. Dabei ist dessen Komplexität abhängig von der Fehlanpassung des gebotenen und gewünschten QoS. Wenn das Netzwerk schon die geforderten Bedingungen bezüglich QoS erfüllt, benötigt es kein weiteres Transportprotokoll. Zum Beispiel wird innerhalb des Internets TCP (engl.: "Transmission Control Proto- col") als Ende-zu-Ende Protokoll verwendet, um den durch das Netzwerk zur Verfügung gestellten QoS an den von den Anwen- düngen geforderten anzupassen. Wenn Ressourcen für jede Ver- bindung innerhalb eines paketvermittelten Netzes reserviert werden, ist es möglich, Garantien für die maximale Verzögerung und minimale Bandbreite abzugeben (z.B. bei B-ISDN über ATM) .A video transmission system is responsible for ensuring that the video data passes from one end to the other. The QoS refers to the service level provided by the transport system to the video application and is characterized by the bandwidth, the error rate and the delay. Conceptually, the transport system can be divided into an underlying network and an end-to-end transport protocol. The latter improves the underlying network's QoS to meet the needs of the service. The complexity of this depends on the mismatch of the offered and desired QoS. If the network already meets the required conditions regarding QoS, it does not need another transport protocol. For example, within the Internet, TCP ("Transmission Control Protocol") is used as an end-to-end protocol in order to adapt the QoS provided by the network to that required by the applications. If resources for each sales reservation within a packet-switched network, it is possible to give guarantees for the maximum delay and minimum bandwidth (eg for B-ISDN over ATM).
Die heute verfügbaren Kommunikationsnetze besitzen Begrenzungen beim QoS . Nachfolgend werden die Auswirkungen dieser Grenzen bei der Übertragung von kodierten Videosequenzen kurz näher betrachtet .The communication networks available today have limitations in QoS. The effects of these limits on the transmission of coded video sequences are briefly examined in more detail below.
Die verfügbare Datenübertragungsrate hat signifikante Auswirkungen auf die Qualität der kodierten Videodaten. Gängige Videokodierverfahren sind üblicherweise verlustbehaftet, was bedeutet, dass zum Teil wichtige Daten bei der Kodierung und Kompression verloren gehen. Bei jedem verlustbehafteten Videokodierverfahren ist im Allgemeinen die durchschnittliche Bitrate der kodierten Daten proportional zur dekodierten Darstellungsqualität. Bei Kodierern bzw. Dekodierern für Videosignale, die auf der Diskreten Kosinus-Transformation (DCT) beruhen, zum Beispiel bei MPEG1 und MPEG2 tritt der Qualitätsverlust beim Quantisieren auf. Eine gröbere Quantisierung führt zu einer schlechteren Bildqualität nach der Dekodie- rung, gleichzeitig findet aber auch eine höhere Komprimierung statt und es resultiert eine geringere Datenrate. Somit ist die Quantisierungsauflösung ein Schlüsselparameter für die Kontrolle der Videobitrate.The available data transfer rate has a significant impact on the quality of the encoded video data. Current video coding methods are usually lossy, which means that important data is sometimes lost during coding and compression. In any lossy video coding method, the average bit rate of the encoded data is generally proportional to the decoded display quality. With encoders or decoders for video signals which are based on the discrete cosine transformation (DCT), for example with MPEG1 and MPEG2, the quality loss occurs during quantization. A coarser quantization leads to a poorer picture quality after decoding, but at the same time, a higher compression takes place and a lower data rate results. Thus, the quantization resolution is a key parameter for controlling the video bit rate.
Die in der Praxis anzutreffenden Kommunikationsnetze verfälschen die zu übertragenden Daten, indem sie Information ver- ändern oder verlieren. Sogar eine relativ niedrige Fehlerrate oder ein sehr geringer Datenverlust kann eine ernsthafte Auswirkung auf die dekodierten Sequenzen haben. Kompressionsalgorithmen entfernen viel von der vorher vorhandenen örtlichen und zeitlichen Redundanz im Signal, was viel schneller zu Problemen führt, wenn das kodierte Signal verfälscht wird (im Vergleich zu einer Verfälschung des unkodierten Signals) . Innerhalb eines Abtastbildes (engl.: "Frame") von kodierten MPEG-Videodaten werden die quantisierten DCT-Koeffizienten mit variablen Lauflängenkodes (VLCs) kodiert. Der Dekodierer kennt die Länge des aktuellen VLCs nicht von vornherein; wenn jetzt ein VLC beschädigt wird, ist es möglich, dass der Dekodierer eine gesamte Subsequenz falsch dekodiert. Zusätzlich werden einige Daten (z.B. DCT-Koeffizienten und Bewegungsvektoren bei MPEG) nicht unabhängig (I-Frames) sondern relativ zu vorhergehenden (P-Frames) oder sogar zukünftigen (B-Fra- mes) Daten kodiert. Somit führt ein Fehler in einem I-Frame auch zu Folgefehlern in davon abhängigen P- und B-Frames. Für solche Fälle sind im kodierten Bitstrom in regelmäßigen Abständen Markierungen vorhanden, die dem Dekodierer die kor- rekte Synchronisation ermöglichen. Solch ein Fehler kann quer durch einen Frame seine Auswirkungen haben, bis die nächste Markierung erreicht wird. Bewegungskompensierte zeitliche Prädiktion kann dazu führen, dass sich der Fehler sowohl zeitlich als auch örtlich fortpflanzt. Fehler, die eine wich- tige Stelle im Bild betreffen oder sich über mehrere Bilder hinweg ausbreiten, sind für einen Betrachter sehr augenfällig. Aus diesem Grund kann ein kodiertes Videosignal nur eine sehr niedrige Fehlerrate tolerieren, bevor die Qualität merklich abfällt. Eine Fehlerwahrscheinlichkeit von mehr als Pb = 10"6 (das heisst ein Fehler auf M = 106 Bits) kann schon einen bemerkbaren Qualitätsverlust bedeuten.The communication networks encountered in practice falsify the data to be transmitted by changing or losing information. Even a relatively low error rate or very little data loss can have a serious impact on the decoded sequences. Compression algorithms remove much of the previously existing local and temporal redundancy in the signal, which leads to problems much more quickly if the encoded signal is corrupted (in Compared to falsification of the uncoded signal). The quantized DCT coefficients are encoded with variable run length codes (VLCs) within a scan frame of coded MPEG video data. The decoder does not know the length of the current VLC from the start; if a VLC is now corrupted, it is possible that the decoder will incorrectly decode an entire sub-sequence. In addition, some data (eg DCT coefficients and motion vectors in MPEG) are not encoded independently (I frames) but rather relative to previous (P frames) or even future (B frames) data. Thus, an error in an I frame also leads to subsequent errors in dependent P and B frames. For such cases, markings are provided in the coded bit stream at regular intervals, which enable the decoder to be synchronized correctly. Such a mistake can have an impact across a frame until the next mark is reached. Motion-compensated temporal prediction can cause the error to propagate both temporally and locally. Errors that affect an important point in the image or spread over several images are very obvious to a viewer. For this reason, an encoded video signal can only tolerate a very low error rate before the quality drops noticeably. An error probability of more than P b = 10 "6 (ie an error on M = 10 6 bits) can already mean a noticeable loss in quality.
B. Bekannte Lösung des allgemeinen Problems nach dem aktuellen Stand der TechnikB. Known solution to the general problem according to the current state of the art
Die Übertragung von Bild- und Tonsignalen orientiert sich bereits heute zum Teil an den psychooptischen bzw. psychoakus- tischen Eigenschaften des Menschen. Beispielsweise sind im Bereich der Bildübertragungstechnik wichtige Parameter wie Bildwiederholfrequenz und Auflösung deshalb so ausgelegt, dass das Auge einen möglichst natürlichen Bildeindruck erhält. Im Folgenden soll auf die wichtigsten Aspekte der Kompression, Übertragung und Dekompression von Bildsignalen nach dem derzeitigen Stand der Technik sowie auf die Rezeption und Verarbeitung dieser Signale im Auge des Betrachters kurz eingegangen werden.The transmission of image and sound signals is already based in part on the psycho-optical or psycho-acoustic properties of humans. For example, in the field of image transmission technology, important parameters such as refresh rate and resolution are designed that the eye receives the most natural possible image impression. In the following, the most important aspects of the compression, transmission and decompression of image signals according to the current state of the art as well as the reception and processing of these signals in the eye of the beholder will be briefly discussed.
Das Auge erkennt die drei Grundfarben Rot (R) , Grün (G) und Blau (B) mit farbselektiven Sehzellen. Deshalb nimmt eine Farbkamera diese drei Farben getrennt auf. Allgemein unterscheidet man bei der Wahrnehmung einer Farbe zwischen den drei Farbelementen Helligkeit (Luminanz) , Farbton (Chrominanz) und Farbsättigung. Diese Elemente spielen auch in der digitalen Bildübertragungs- und Bildverarbeitungstechnik eine wichtige Rolle. Die Luminanz bezeichnet die Lichtenergie, die das Auge erreicht. Eine Farbe mit großer Energie hinterlässt einen hellen Eindruck, die gleiche Farbe mit geringerer Energie wird dunkler empfunden. Während die Chrominanz die Art der Farbe und damit die Wellenlänge der empfangenen Strahlung definiert, liefert die Farbsättigung eine Aussage über den Weißwert einer bestimmten Farbe. Bei einer absolut reinen Farbe, also einer Strahlung mit nur einer Wellenlänge (monochromatisches Licht), beträgt die Farbsättigung 100%. Bei einer zur Hälfte mit Weiß gemischten reinen Farbe beträgt sie nur noch 50%.The eye recognizes the three primary colors red (R), green (G) and blue (B) with color-selective visual cells. That is why a color camera records these three colors separately. In general, a distinction is made between the three color elements of brightness (luminance), hue (chrominance) and color saturation. These elements also play an important role in digital image transmission and image processing technology. Luminance refers to the light energy that reaches the eye. A color with high energy leaves a bright impression, the same color with lower energy is felt darker. While chrominance defines the type of color and thus the wavelength of the radiation received, the color saturation provides information about the white value of a specific color. In the case of an absolutely pure color, i.e. radiation with only one wavelength (monochromatic light), the color saturation is 100%. With a pure color mixed halfway with white, it is only 50%.
Die Bild- oder Helligkeitsinformation eines Videosignals wird auch als Luminanz- oder Y-Signal bezeichnet. Dabei werden die unterschiedlichen Helligkeitswerte eines Bildes in analoge bzw. digitale Spannungswerte umgesetzt, die im Videosignal als Amplitudenänderungen erscheinen. Je schneller die Hell- Dunkel-Information der Bildpunkte einer Bildzeile wechselt, je kleiner also zusammenhängende Bildanteile konstanter Helligkeit sind, desto größer ist die Frequenz der Signalspan- nung. Da hohe Frequenzen nur schwer übertragen werden können, ist die Darstellung von Bilddetails, die sogenannte Bildauflösung, begrenzt. Durch die CCIR-Norm ist die höchste übertragene Signalfrequenz eines Videosignals mit ^x = 5 MHz vorgegeben. Damit sind die Bandbreite und die maximale Bild- auflösung festgelegt.The image or brightness information of a video signal is also referred to as a luminance or Y signal. The different brightness values of an image are converted into analog or digital voltage values that appear in the video signal as changes in amplitude. The faster the light-dark information of the pixels of a picture line changes, the smaller the coherent parts of the picture are of constant brightness, the higher the frequency of the signal voltage. Since high frequencies are difficult to transmit, the display of image details, the so-called image resolution, is limited. The CCIR standard specifies the highest transmitted signal frequency of a video signal with ^ x = 5 MHz. This defines the bandwidth and the maximum image resolution.
Die Farbinformation eines Videosignals wird im Rahmen der Signalaufbereitung nach der PAL-Fernsehnorm durch einen Helligkeitswert (Luminanz) , einen Farbwert (Chrominanz) und die Farbsättigung ausgedrückt. Diese drei Komponenten müssen auch bei der Übertragung eines Farbbildes vorhanden sein. Zur Erzeugung eines Farbbildes wandelt eine digitale Farbbild- bzw. Videokamera das durch das Objektiv einfallende farbige Licht in drei elektrische SignalSpannungen UR, UG und UB um. Diese drei SignalSpannungen entsprechen den Rot-, Grün- und Blauanteilen des Bildes. Man bezeichnet diese Signalspannungen als RGB-Signal. Im RGB-Signal sind die Komponenten Luminanz, Chrominanz und Farbsättigung bereits enthalten. Das Luminanz- signal wird dabei gemäß der Dreifarbentheorie aus den RGB- Signalwerten, also durch additive Überlagerung von Farbsignalanteilen der drei Primärfarben des additiven Farbsystems, gewonnen. Aus der Dreifarbentheorie ist bekannt, dass sich jede sichtbare Farbe durch Farbmischung aus den drei Primärfarben zusammenstellen lässt. Als Primärfarbe gelten diejeni- gen Farben, die nicht durch Mischung aus anderen Primärfarben erzeugt werden können. Nach Beschluss durch die Internationale Beleuchtungskommission (IBK) , auch "Commission Internationale de l'Eclairage" (CIE) genannt, wurden als Primärfarben Rot (R, λ = 700 nm) , Grün (G, λ = 546,1 nm) und Blau (B, λ = 435,8 nm) festgelegt. Durch additive Farbmischung der drei Primärfarben kann Licht verschiedenster Farbe erzeugt werden. Um beispielsweise die Farbe Weiß mit 100% Sättigung zu erhalten, werden die Signalspannungen der drei Primärfarben nach der folgenden Formel addiert : ÜY = 0 , 3 0 - UR + 0 , 59 - UG + 0 , 11 - UB The color information of a video signal is expressed in the context of signal processing according to the PAL television standard by a brightness value (luminance), a color value (chrominance) and the color saturation. These three components must also be present when transmitting a color image. To generate a color image, a digital color image or video camera converts the colored light incident through the lens into three electrical signal voltages U R , U G and U B. These three signal voltages correspond to the red, green and blue components of the image. These signal voltages are referred to as RGB signals. The components luminance, chrominance and color saturation are already included in the RGB signal. The luminance signal is obtained according to the three-color theory from the RGB signal values, that is to say by additive superimposition of color signal components of the three primary colors of the additive color system. It is known from three-color theory that any visible color can be put together from the three primary colors by mixing colors. The primary colors are those colors that cannot be created by mixing other primary colors. According to a decision by the International Commission for Illumination (IBK), also called "Commission Internationale de l'Eclairage" (CIE), the primary colors red (R, λ = 700 nm), green (G, λ = 546.1 nm) and blue (B, λ = 435.8 nm). Additive color mixing of the three primary colors enables light of the most varied color to be generated. For example, to obtain the color white with 100% saturation, the signal voltages of the three primary colors are added using the following formula: ÜY = 0, 3 0 - UR + 0, 59 - U G + 0, 11 - U B
mit den Spannungsamplitudenwith the voltage amplitudes
Ü : für die SignalSpannung der wahrgenommenen Farbe Weiß,Ü: for the signal voltage of the perceived color white,
UR : für die SignalSpannung des übertragenen Farbanteils Rot,U R : for the signal voltage of the transferred color component red,
UQ -. für die SignalSpannung des übertragenen Farbanteils Grün,UQ -. for the signal voltage of the transferred color component green,
UB : für die SignalSpannung des übertragenen Farbanteils Blau.U B : for the signal voltage of the transferred color component blue.
Die Information für Chrominanz und Farbsättigung erhält man, indem man die SignalSpannung üj für den Luminanzwert Y von den Signalspannungen UR l UG bzw. UB des RGB-Signals subtrahiert. Es entstehen somit die Farbdifferenzsignale UR-γ, UG.γ bzw. Ü-B- . Da das menschliche Auge für Farbunterschiede kleiner Bilddetails weniger empfindlich ist als für Helligkeitsunterschiede dieser Bildausschnitte und das breitbandige Y- Signal separat übertragen wird, kann die Bandbreite B der Farbdifferenzsignals auf ß = 1,2 MHz begrenzt werden.The information for chrominance and color saturation is obtained by subtracting the signal voltage uj for the luminance value Y from the signal voltages U R l U G and U B of the RGB signal. The color difference signals U R -γ, U G .γ and Ü- B - thus arise. Since the human eye is less sensitive to color differences in small image details than to brightness differences in these image sections and the broadband Y signal is transmitted separately, the bandwidth B of the color difference signal can be limited to β = 1.2 MHz.
Zur Bildreproduktion im Monitor des Empfängers reichen die drei Komponenten Rot, Grün und Blau aus. Daher genügt es (bei vorhandenem Y-Signal) , nur zwei Farbwerte und den Luminanzwert zu übertragen. In der Praxis überträgt man deshalb neben dem Y-Signal nur die beiden Farbdifferenzsignale R-Y und B-Y. Das Farbdifferenzsignal G-Y wird nicht übertragen, da es die größte Signalamplitude besitzt und daher am meisten den Signal-Rausch-Abstand des übertragenen Videosignals beeinflusst. Um weiterhin eine Übermodulation des Senders zu vermeiden, werden die beiden Farbdifferenzsignale R-Y und B-Y in ihrer Amplitude begrenzt. Das begrenzte R- Y-Signal wird dann auch als V-Komponente, das begrenzte B- Y-Signal als U-Komponente bezeichnet. Im Monitor des Empfängers lassen sich die drei Primärfarben Rot (R) , Grün (G) und Blau (B) zurückgewinnen, indem man die empfangene Y-Komponente zu den empfangenen Farbdif ferenzsignalen R-Y und B-Y addiert, also die folgende Matrix-Vektor-Multiplikation ausführt :The three components red, green and blue are sufficient for image reproduction in the monitor of the receiver. It is therefore sufficient (if the Y signal is present) to transmit only two color values and the luminance value. In practice, therefore, only the two color difference signals RY and BY are transmitted in addition to the Y signal. The color difference signal GY is not transmitted because it has the largest signal amplitude and therefore most influences the signal-to-noise ratio of the transmitted video signal. In order to further avoid overmodulation of the transmitter, the two color difference signals RY and BY are limited in their amplitude. The limited R-Y signal is then also referred to as the V component, the limited B-Y signal as the U component. The three primary colors red (R), green (G) and blue (B) can be recovered in the monitor of the receiver by adding the received Y component to the received one Color difference signals RY and BY added, i.e. executes the following matrix-vector multiplication:
Aι,oo 0,00 +1,00 0,00 +1,00Aι, oo 0.00 +1.00 0.00 +1.00
+ 1,00 -0,19 +1,00 -0,19 -0,51 B-Y
Figure imgf000015_0001
ßy + 1,00 +1,00
Figure imgf000015_0002
+ 1,00 +1,00 +0,00j R-Y
+ 1.00 -0.19 +1.00 -0.19 -0.51 BY
Figure imgf000015_0001
ß y + 1.00 +1.00
Figure imgf000015_0002
+ 1.00 +1.00 +0.00 j RY
Die Farbe Grün (G) ergibt sich sich so beispielsweise alsThe color green (G) results, for example, as
G = Y-0,19- (B-Y)-0,51- (R-Y) = 1 , 70 • Y-0 , 19 B-0 , 51 -R.G = Y-0.19- (BY) -0.51- (RY) = 1.70 • Y-0.19 B-0.51 -R.
Das europäische PAL-Farbfernsehen stellt eine Weiterentwicklung des amerikanischen NTSC-Systems dar. Bei beiden Systemen wird die Farbinformation mit Hilfe einer Quadraturmodulation übertragen, da systembedingt nur ein hochfrequentes Trägersignal zur Verfügung steht, aber zwei Farbinformationsignale (R-Y und B-Y für die Komponenten V und U) mit demselben Träger übertragen werden müssen. Das Farbsignal besteht also aus zwei um 90° phasenversetzten modulierten TrägerSchwingungen. Die Modulation der V-Komponente erfolgt beim NTSC-System allerdings nur auf der positiven V-Achse. Eine alternierende Umschaltung der Farbträgerphase zur Kompensation von Phasenfehlern gibt es in diesem System nicht. Folglich ist das NTSC-System störanfälliger gegenüber Phasenfehlern bei der Übertragung.European PAL color television represents a further development of the American NTSC system. In both systems, the color information is transmitted with the aid of quadrature modulation, since only one high-frequency carrier signal is available due to the system, but two color information signals (RY and BY for the components V and U ) must be transmitted with the same carrier. The color signal therefore consists of two modulated carrier vibrations that are 90 ° out of phase. In the NTSC system, however, the V component is only modulated on the positive V axis. There is no alternating switching of the ink carrier phase to compensate for phase errors in this system. As a result, the NTSC system is more susceptible to phase errors in the transmission.
Damit eine flüssige Bildfolge entsteht, müssen mindestens 16 Vollbilder pro Sekunde abgetastet und übertragen werden. Um jedoch einen flimmerfreien Eindruck zu erhalten, ist eine Bildwiederholfrequenz von mindestens fa = 50 Hz notwendig. Es reicht allerdings aus, zwei verzahnte Halbbilder mit jeweils 50 Hz zu übertragen, wobei die Bandbreite gleich groß wie bei 25 Vollbildern bleibt. Die Zeilenzahl wurde (bei PAL) mit 625 Zeilen so festgelegt, dass die vertikale Auflösung in etwa der des Auges entspricht. Die horizontale Auflösung wird durch die Videobandbreite bestimmt und wurde der vertikalen angepasst .In order to create a smooth image sequence, at least 16 full images per second must be scanned and transmitted. However, in order to obtain a flicker-free impression, a refresh rate of at least f a = 50 Hz is necessary. However, it is sufficient to transmit two interlaced fields with 50 Hz each, whereby the bandwidth remains the same as with 25 frames. The number of lines (for PAL) was set at 625 lines so that the vertical resolution is approximately corresponds to that of the eye. The horizontal resolution is determined by the video bandwidth and has been adapted to the vertical.
Anstelle einer vollständigen Übertragung der drei Grundfarben werden Verfahren angewandt, die mit weniger Bandbreite auskommen. Es werden die Helligkeit (Luminanz oder Y) mit der vollen Bandbreite B = 5 MHz, die Differenzsignale Blau minus Luminanz (B-Y) und Rot minus Luminanz (R-Y) mit der re- duzierten Bandbreite von je ca. B = 1,3 bis 1,5 MHz gesendet. Die Luminanz ist für die Bildschärfe maßgebend (volle Bandbreite) , während die Farbinformation weniger genau übermittelt werden muss. Im Basisband-Spektrum des übertragenen Com- posite-Signals aus Y- , R-Y- und B- Y-Signal belegt die Lumi- nanz (Y) fast die ganze Kanalbandbreite. Die Farbinformationen B-Y ( U) und R-Y ( V) werden einem Träger aufmoduliert, der - um Interferenzen zu vermeiden, Bandbreite zu sparen und kompatibel zum vorhergehenden Schwarz-Weiß-Fernsehsystem zu sein - im Bereich geringer spektraler Energiedichte der Lumi- nanz liegt. Das Audiosignal wird ebenfalls moduliert und am oberen Rand des KanalSpektrums untergebracht.Instead of a complete transfer of the three primary colors, methods are used that use less bandwidth. The brightness (luminance or Y) with the full bandwidth B = 5 MHz, the difference signals blue minus luminance (BY) and red minus luminance (RY) with the reduced bandwidth of approx. B = 1.3 to 1 each , 5 MHz is sent. The luminance is decisive for the image sharpness (full bandwidth), while the color information has to be transmitted less precisely. In the baseband spectrum of the composite signal transmitted from the Y, R-Y and B-Y signals, the luminance (Y) occupies almost the entire channel bandwidth. The color information B-Y (U) and R-Y (V) are modulated onto a carrier which - in order to avoid interference, save bandwidth and be compatible with the previous black and white television system - lies in the range of low spectral energy density of the luminance. The audio signal is also modulated and placed at the top of the channel spectrum.
Da die Bild- und Tonsignale nach wie vor analog entstehen, müssen sie für eine digitale Weiterverarbeitung zuerst digitalisiert werden. Unter dem Vorgang des Digitalisierens versteht man die drei Schritte Abtastung (unter Einhaltung des Shannon-Theorems zur Vermeidung von Aliasing-Effekten) , Quantisierung und Kodierung.Since the image and sound signals are still analog, they must first be digitized for further digital processing. The process of digitizing is understood to mean the three steps of sampling (in compliance with the Shannon theorem to avoid aliasing effects), quantization and coding.
Übertragungskanäle und Speichermedien haben nur beschränkte Kapazitäten, was aus technischen und ökonomischen Gründen eine Datenreduktion unabdingbar macht. Ein Videosignal hat beispielsweise eine Datenrate von R = 124,5 MBit/s während ein Satellitenkanal der Bandbreite B = 33 MHz bei einer Bandbrei- teneffizienz von η = 1,57 Bit/ (s -Hz) lediglich eine DatenrateTransmission channels and storage media have only limited capacities, which makes data reduction indispensable for technical and economic reasons. For example, a video signal has a data rate of R = 124.5 Mbit / s while a satellite channel with a bandwidth of B = 33 MHz with a bandwidth efficiency of η = 1.57 bit / (s -Hz) only one data rate
R -= B - η « 52 MBit/s übertragen kann.R - = B - η «52 Mbit / s can transmit.
Die analogen RGB-Komponenten werden nach der Analog-Digital- Wandlung durch eine lineare Matrixtransformation in den YUV- Farbraum konvertiert, was die spektrale Redundanz verringert. Ferner werden so die hohen Frequenzen in der Luminanzkompo- nente konzentriert, weil das Auge hohe Chrominanzfrequenzen nicht so gut auflösen kann. Nach einer Tiefpassfilterung (zur Vermeidung von Aliasing-Effekten) werden die Chrominanzkompo- nenten um den Faktor 2 horizontal und vertikal unterabgetastet.After the analog-digital conversion, the analog RGB components are converted into the YUV color space by a linear matrix transformation, which reduces the spectral redundancy. Furthermore, the high frequencies are concentrated in the luminance component because the eye cannot resolve high chrominance frequencies so well. After low-pass filtering (to avoid aliasing effects), the chrominance components are subsampled horizontally and vertically by a factor of 2.
Zwei zeitlich aufeinanderfolgende Bilder eines Videosignals sind - Szenenwechsel ausgenommen - sehr ähnlich und beinhalten zeitliche Redundanz. Wird jedoch nur das Differenzbild kodiert, fällt die Entropie wesentlich günstiger aus. Weitere Verbesserungen lassen sich erzielen, wenn nicht das Differenzbild, sondern das bewegungskompensierte Residuum und die entsprechenden Bewegungsvektoren kodiert werden: Dabei wird makroblockweise analysiert, in welche Richtung sich der Inhalt eines Blockes verschiebt . Der Dekodierer erhält diese Information in Form von Bewegungsvektoren. Zur Bildrekonstruktion werden die Blöcke des alten Bildes gemäß der Vekto- ren verschoben und das Residuum addiert. Es gibt verschiedene Verfahren zur BewegungsSchätzung. Beim sogenannten "Block- Matching" -Verfahren werden die Makroblöcke in einem definierten Suchbereich verschoben und ein Korrelationsfaktor p bestimmt. Die Genauigkeit des Algorithmus bestimmt den Entro- piegewinn und damit die Datenrate.Two images of a video signal that follow one another in time are very similar - with the exception of scene changes - and contain redundancy over time. However, if only the difference image is encoded, the entropy is much cheaper. Further improvements can be achieved if not the difference image, but the motion-compensated residual and the corresponding motion vectors are encoded: Here, a macro-block analysis is carried out in which direction the content of a block shifts. The decoder receives this information in the form of motion vectors. For image reconstruction, the blocks of the old image are shifted according to the vectors and the residual is added. There are various methods of motion estimation. In the so-called "block matching" method, the macroblocks are shifted in a defined search area and a correlation factor p is determined. The accuracy of the algorithm determines the entropy gain and thus the data rate.
Mit Hilfe der Diskreten Kosinus-Transformation (DCT) kann dem Signal räumliche Redundanz und Irrelevanz entzogen werden. Die Darstellung der Bilddaten durch DCT-Koeffizienten hat denWith the help of the discrete cosine transformation (DCT), spatial redundancy and irrelevance can be removed from the signal. The representation of the image data by DCT coefficients has the
Vorteil, dass sich die nur im Blockverbund erfassbare räumliche Redundanz (z.B Farbflächen) durch die Transformation verringert, weil sich die Signalenergie auf wenige Koef- fizienten konzentriert. Dies sind die Koeffizienten kleiner Frequenzen und vor allem die Grundfrequenz. Mit Hilfe der DCT lässt sich jedoch auch räumliche Irrelevanz bestimmen und e- liminieren: Aufgrund des Mach- und Obelique-Effektes kann das Auge hohe Frequenzen und insbesondere diagonale weniger fein auflösen. Die entsprechenden Koeffizienten können also gröber quantisiert werden.The advantage that the spatial redundancy (e.g. colored areas) that can only be detected in the block network is reduced by the transformation, because the signal energy is concentrated on a few coefficients. These are the coefficients of low frequencies and above all the fundamental frequency. With the help of the DCT, however, spatial irrelevance can also be determined and limited: due to the Mach and Obelique effect, the eye can resolve high frequencies, particularly diagonal ones, less precisely. The corresponding coefficients can therefore be roughly quantized.
Bei der Quantisierung der DCT Koeffizienten, werden die meisten Werte - bis auf wenige in der Umgebung des Gleichsignal- anteils (DC) - zu Null. Durch ein Auslesen nach der Zick-When quantizing the DCT coefficients, most of the values - with the exception of a few in the vicinity of the DC signal component - become zero. By reading after the zig-zag
Zack-Methode werden die Nullen zu einer Nullfolge zusammengelegt. Die Lauflängkodierung fasst jeweils die Anzahl der Nullen und den ersten nächsten von Null verschiedenen Koeffizienten zu einem Zahlenpaar zusammen. Anschließend werden diese Paare huffmankodiert, indem dessen Auftrittswahrschein- lichkeiten bei der Vergabe der Kodewortlängen berücksichtigt wird. Die Kombination dieser beiden Kodierungsarten ist hinsichtlich der Bitrate sehr effizient und nähert sich der Entropie auf ein Optimum.Zack method, the zeros are combined into a zero sequence. The run length coding combines the number of zeros and the first next non-zero coefficient into a pair of numbers. These pairs are then huffman-coded by taking their probability of occurrence into account when assigning the code word lengths. The combination of these two types of coding is very efficient with regard to the bit rate and approaches the entropy to an optimum.
Im Zusammenhang mit der Kompression und Kodierung von Bewegt- bildsequenzen existiert eine Reihe von Standards, auf die im Folgenden kurz eingegangen werden soll.A number of standards exist in connection with the compression and coding of moving image sequences, which will be briefly discussed below.
M-JPEG (engl.: "Motion JPEG") ist kein eigentlicher Standard, vielmehr gibt es verschiedene Verfahren, wie der JPEG-Standard auf Bewegtsequenzen angewandt wird. Es handelt sich hierbei um eine reine Intraframe-Kodierung, d.h. es gibt keine bildübergreifenden Algorithmen zur Reduzierung der Da- tenrate. Die Kompression erfolgt durch eine 8x8-DCT mit an- schliessender Quantisierung und Lauflängenkodierung. M-JPEG wird vor allem im Bereich nichtlinearer Videoschnitte verwendet und erlaubt prinzipiell Datenraten von wenigen MBit/s bis hin zu der des unkomprimierten Videosignals. Entsprechend ist auch die Bildqualität unterschiedlich: Eine Datenrate von etwa R = 1 MBit/s entspricht ungefähr VHS-AufZeichnungen, eine Datenrate von R = 25 MBit/s ist beinahe Studioqualität.M-JPEG ("Motion JPEG") is not an actual standard, rather there are different methods of how the JPEG standard is applied to motion sequences. This is a pure intraframe coding, ie there are no cross-image algorithms for reducing the data rate. The compression is carried out by an 8x8 DCT with closing quantization and run length coding. M-JPEG is mainly used in the field of non-linear video editing and basically allows data rates from a few Mbit / s up to that of the uncompressed video signal. The image quality also varies accordingly: a data rate of approximately R = 1 Mbit / s corresponds approximately to VHS recordings, a data rate of R = 25 Mbit / s is almost studio quality.
Zur Erreichung einer möglichst großen Kompressionsrate werden heute verschiedene Techniken angewandt : Zuerst muss eine angemessene Bandbreite für das zu kodierende Signal gewählt werden. Danach verwendet der Algorithmus eine blockbasierte Bewegungskompensation, um die zeitliche Redundanz zu verkleinern. Die Bewegungskompensation kann auf drei Arten gesche- hen: (a) Vorhersage des momentanen Bildes vom vorhergehenden Bild, (b) Vorhersage des momentanen Bildes von einem zukünftigen Bild oder (c) Interpolation von zwei benachbarten Bildern. Danach wird der Vorhersagefehler { Differenzsignal) mit der DCT komprimiert, indem die räumliche Korrelation entfernt und anschliessend quantisiert wird. Zum Schluss werden dieVarious techniques are used today to achieve the highest possible compression rate: First, an appropriate bandwidth must be selected for the signal to be encoded. The algorithm then uses block-based motion compensation to reduce redundancy over time. Motion compensation can be done in three ways: (a) predicting the current image from the previous image, (b) predicting the current image from a future image, or (c) interpolating two adjacent images. The prediction error (difference signal) is then compressed with the DCT by removing the spatial correlation and then quantizing it. In the end, the
Bewegungsvektoren mit der DCT-Information zusammengeführt und mit einem variablen Lauflängenkodierer kodiert. Anschließend ist für die Videodaten eine optionale Fehlerkorrektur vorgesehen. MPEGl wird vor allem für die Speicherung von Videofil- en auf CD und im Heimcomputerbereich auf CD-ROM verwendet. Die Datenrate (Bild und Ton) liegt nach dem Standard bei R = 1,5 MBit/s, es gibt aber zahlreiche Anwendungen, die auch größere Datenströme nach dem MPEGl-Standard verwenden.Motion vectors are merged with the DCT information and encoded with a variable run length encoder. An optional error correction is then provided for the video data. MPEGl is mainly used for the storage of video files on CD and in the home computer area on CD-ROM. The data rate (image and sound) is R = 1.5 Mbit / s according to the standard, but there are numerous applications that also use larger data streams according to the MPEGl standard.
Während MPEGl im Multimediabereich mit dem Speichermedium CD bei geringen Datenraten von R « 1,15 MBit/s seine Anwendung findet, dient die Erweiterung MPEG2 der Übertragung von Fernsehsignalen im Zeilensprungverfahren. MPEG2 sieht Datenraten von bis zu R = 15 MBit/s vor, wobei schon R = 6 MBit/s mit der Qualität der PAL-Norm vergleichbar und R = 9 MBit/s sub- jektiv kaum vom Original (Studioqualität, RGB) zu unterscheiden ist (Visuelle Transparenz) . Es erreicht seine hohen Kompressionsfaktoren durch Differenzkodierung mit Bewegungsschätzung, einer DCT mit adaptiver Quantisierung und an- schliessender Entropiekodierung.While MPEG1 is used in the multimedia field with the storage medium CD at low data rates of R <1.15 Mbit / s, the MPEG2 extension is used for the transmission of television signals using the interlaced method. MPEG2 provides data rates of up to R = 15 Mbit / s, whereby R = 6 Mbit / s is comparable to the quality of the PAL standard and R = 9 Mbit / s sub- It is hardly possible to distinguish jective from the original (studio quality, RGB) (visual transparency). It achieves its high compression factors through differential coding with motion estimation, a DCT with adaptive quantization and subsequent entropy coding.
Die zur Übertragung oder Speicherung eines digitalen Signals bei vorgegebenem Quantisierungsfehler notwendige Datenmenge lässt sich in vielen Fällen deutlich verringern, wenn die statistischen Bindungen zwischen benachbarten Abtastwerten des digitalen Signals berücksichtigt werden. Ein bekanntes Verfahren zur Datenreduktion redundanter und irrelevanter digitaler Bildsignale ist die sogenannte " Differenz-Pulskodemodulation" (DPCM) . Im Vergleich zu technisch aufwendigeren Al- ternativmethoden ist die einfache Methode der DPCM-Kodierung sehr effektiv. Bei DPCM wird der Schätzfehler, also die Differenz zwischen Originalsignal und einer durch lineare Filterung erhaltenen Vorhersage eines Prädiktors, anstelle des 0- riginalsignals übertragen. Der erreichbare Grad der Datenre- duktion hängt dabei von der Güte des Prädiktionsfilters ab. Der Prädiktor ist im einfachsten Fall ein Laufzeitelement, dessen Verzögerungszeit der Abtastperiode Δt des digitalen Signals entspricht; der Vorhersagewert ist dann bis auf den Quantisierungsfehler gleich dem letzten Abtastwert. Eine Ver- besserung der Prädiktion kann erreicht werden, wenn als Prä- diktoren Transversalfilter benutzt werden, die den Vorhersagewert als gewichtete Summe über mehrere vorausgehende Abtastwerte bilden. Der bei DPCM-Übertragung erzielbare Gewinn kann wie folgt bestimmt werden: Gegeben sei ein gaußverteil- tes, gleichanteilfreies Testsignals s ( t) mit endlicher Länge und damit endlicher SignalenergieThe amount of data required for the transmission or storage of a digital signal with a given quantization error can be significantly reduced in many cases if the statistical relationships between neighboring samples of the digital signal are taken into account. A known method for data reduction of redundant and irrelevant digital image signals is the so-called "differential pulse code modulation" (DPCM). Compared to technically more complex alternative methods, the simple method of DPCM coding is very effective. In DPCM, the estimation error, ie the difference between the original signal and a prediction of a predictor obtained by linear filtering, is transmitted instead of the original signal. The degree of data reduction that can be achieved depends on the quality of the prediction filter. In the simplest case, the predictor is a runtime element whose delay time corresponds to the sampling period Δt of the digital signal; the prediction value is then the last sample value except for the quantization error. An improvement in the prediction can be achieved if transversal filters are used as predictors, which form the predicted value as a weighted sum over several preceding samples. The gain that can be achieved with DPCM transmission can be determined as follows: Given a Gaussian-distributed test component s (t) with a finite length and thus finite signal energy
E = j s2(t) dt < 00, der Standardabweichung σs und der Sendeleistung Sa = σ . In der Systemtheorie besitzt s(t) aufgrund der obigen Definition der Signalenergie E die Einheit [s(t)] = VlV ; in der Praxis handelt es sich bei dem Signal s ( t) jedoch um eine reale Signalspannung u ( t) (in V) für t e [tι;t2] an einem Widerstand R (in Ω) bzw. einen realen Signalstrom i(t) (in A) , der während der Zeit t e [ tχ; t2l durch diesen Widerstand R (in Ω) fließt. Die Signalenergie ist dannE = js 2 (t) dt <00, the standard deviation σ s and the transmission power S a = σ. In system theory, due to the above definition of the signal energy E, s (t) has the unit [s (t)] = VlV; in practice, however, the signal s (t) is a real signal voltage u (t) (in V) for te [tι; t 2 ] across a resistor R (in Ω) or a real signal current i (t ) (in A), which during the time te [tχ; t 2 l flows through this resistor R (in Ω). The signal energy is then
t,t,
Eel = - - ] u2(t) dt = R - ] i (t) dtE el = - -] u 2 (t) dt = R -] i (t) dt
R -. -R -. -
für t e [tι;t2] . Nach Abtastung und Quantisierung dieses analogen Signals s ( t) (nach der Definition im Sinne der System- theorie) entsteht das digitale Signal s (n) mit der Autokorrelationsfunktionfor te [tι; t 2 ]. After sampling and quantizing this analog signal s (t) (according to the definition in the sense of system theory), the digital signal s (n) with the autocorrelation function is created
+ co ςε»s (m) : = s ( -m) *s (m) = ∑s (n)- s (n + m) .+ co ςε » s (m): = s (-m) * s (m) = ∑s (n) - s (n + m).
In diesem Fall kann gezeigt werden, dass die Quantisierungs- fehlerleistung Nq bei DPCM-Übertragung im Vergleich zu reiner PCM-Übertragung um den FaktorIn this case it can be shown that the quantization error power N q in DPCM transmission compared to pure PCM transmission by a factor
Figure imgf000021_0001
Figure imgf000021_0001
gesenkt werden kann. Dazu ein Beispiel: Die Luminanzkompo- nente (Y) von Fernsehbildsignalen wird bei einer Übertragung nach dem Verfahren der normalen "Pulskodemodulation" (PCM) mit einer Abtastrate von fa = l/Δt = 10 MHz abgetastet und quantisiert, wobei das Signal mit k = 8 Bit/Abtastwert kodiert wird. Bei dieser Abtastfrequenz besitzt die Autokorrelationsfunktion für unmittelbar benachbarte Bildpunkte den Wertcan be lowered. Here is an example: The luminance component (Y) of television picture signals is sampled during a transmission according to the normal "pulse code modulation" (PCM) method with a sampling rate of f a = 1 / Δt = 10 MHz quantized, the signal being encoded with k = 8 bits / sample. At this sampling frequency, the autocorrelation function has the value for immediately adjacent pixels
Figure imgf000022_0001
Figure imgf000022_0001
Bei der einfachsten Form der DPCM-Kodierung, bei der die Differenzsignalwerte je zweier unmittelbar benachbarter Abtast- werte des Originalsignals übertragen werden, kann somit die Quantisierungsfehlerleistung um den FaktorIn the simplest form of DPCM coding, in which the difference signal values of two immediately adjacent sample values of the original signal are transmitted, the quantization error performance can be increased by a factor
" q, DPCM 2- (1-0,97) = 0 , 06 , d.h. 10-log10 q'DPCM * -12 dB " q, PCM N " q„, P„CM"q, DPCM 2- (1-0.97) = 0.06, ie 10-log 10 q ' DPCM * -12 dB" q, PCM N "q", P " CM
vermindert werden. Da die Nutzsignalleistung 5a bei DPCM die gleiche wie bei PCM ist, wird auch das Signal-zu-Stör-Ver- hältnis 5a/Nq um 12 dB verbessert.can be reduced. Since the useful signal power 5 a in DPCM is the same as in PCM, the signal-to-interference ratio 5 a / N q is also improved by 12 dB.
Neben den erwähnten Standards ist nach dem heutigen Stand der Technik noch eine Reihe weiterer Standards im Bereich der Bildkodierung üblich.In addition to the standards mentioned, a number of other standards in the field of image coding are common according to the current state of the art.
Zur Regulierung der Helligkeit aufgenommener Bilder werden nach heutigem Stand der Technik Fotoapparate und Videokameras mit automatischen Blendenregelungen, im englischen Sprachgebrauch "Auto-Iris-Control" oder "Auto-Lens-Control" (ALC) genannt, eingesetzt. Bei einer durch den zeitvarianten Licht- ström Φ(t) (in Im) und die zeitvariante Beleuchtungsstärke E ( t) (in lx = lm-m"2) gekennzeichneten Umgebungshelligkeit kann die Blendenöff ung durch einen Stellmechanismus verändert und somit die auf den Bildwandler fallende Lichtmenge Q = \ φ (t) dt ( in Ws bzw. lm - s)According to the current state of the art, cameras and video cameras with automatic aperture control, in the English term "auto iris control" or "auto lens control" (ALC), are used to regulate the brightness of recorded images. In the case of an ambient brightness characterized by the time-varying luminous flux Φ (t) (in Im) and the time-varying illuminance E (t) (in lx = lm-m "2 ), the aperture can be changed by an adjusting mechanism and thus that on the image converter falling amount of light Q = \ φ (t) dt (in Ws or lm - s)
bzw. die Belichtungor the exposure
H = J E (t) dt (in Ws - m bzw . lx - s)H = J E (t) dt (in Ws - m or lx - s)
beeinflusst werden. Die Öffnung der Blende hat somit großen Einfluss auf die Qualität der reproduzierten Bilder. Die Blendenöffnung muss dabei ständig an die jeweilige Aufnahme- Situation angepasst werden. Dazu ist jedoch eine gewisse Verzögerungszeit ΔtVB unvermeidlich. Die automatische Blendenregelung besteht aus einem elektronisch-mechanischen Regelkreis, der die Blendenöffnung so regelt, dass vom Bildwandler immer noch ein mittlerer Luminanzpegel abgegeben wird. Das Regelsignal für den Stellmotor der Blende wird dabei aus einer Rückkopplungsschaltung gewonnen, die von einer helligkeitsproportionalen Gleichspannung Us ~ ü~γ angesteuert wird. Je nach Aufwand der RegelSchaltung können mit der ALC-Schaltung Beleuchtungsunterschiede zwischen ΔE = 10 lx und AE = 100.000 lx ausgeglichen werden. An die ALC-Schaltung werden hierbei besondere Anforderungen gestellt. So müssen zum Beispiel spontane Helligkeitsänderungen oder starke Helligkeits- kontraste innerhalb eines Bildbereichs so schnell wie möglich und ohne Regelschwingungen ausgeglichen werden.to be influenced. The opening of the aperture therefore has a great influence on the quality of the reproduced images. The aperture must be constantly adapted to the particular shooting situation. However, a certain delay time Δt V B is inevitable for this. The automatic iris control consists of an electronic-mechanical control circuit that controls the aperture so that the image converter still outputs a medium luminance level. The control signal for the actuator of the diaphragm is obtained from a feedback circuit which is driven by a DC voltage U s ~ ü ~ γ which is proportional to the brightness. Depending on the complexity of the control circuit, lighting differences between ΔE = 10 lx and AE = 100,000 lx can be compensated for with the ALC circuit. Special requirements are placed on the ALC circuit. For example, spontaneous changes in brightness or strong contrasts in brightness within an image area must be compensated for as quickly as possible and without control oscillations.
Um eine Übersteuerung durch zu hohe Luminanzpegel U zu verhindern, sind in herkömmlichen Videokameras ferner sogenannte signalverarbeitende "Weiß-Begrenzer-Schaltungen" als Chip integriert . C. Unzulänglichkeiten, Auswirkungen und Nachteile der bekannten LösungIn order to prevent overloading due to excessively high luminance level U, so-called signal processing "white limiter circuits" are also integrated as chips in conventional video cameras. C. Inadequacies, effects and disadvantages of the known solution
Die heute im Handel erhältlichen Videokameras führen eine au- tomatische Helligkeitsregulierung sowie einen automatischen Weiß-Abgleich durch. Zur Redundanzreduktion für das zu übertragende digitale Videosignal, das im Zeitbereich durch das abgetastete und quantisierte digitale DatensignalThe video cameras available on the market today carry out automatic brightness control and automatic white balance. Reduction of redundancy for the digital video signal to be transmitted, in the time domain by the sampled and quantized digital data signal
s (n)= V n e IN0,
Figure imgf000024_0001
d.h. s (n) e {0,...,0, s0, sl7... , sn, . . . , sN, 0,...,θ},
s (n) = V ne IN 0 ,
Figure imgf000024_0001
ie s (n) e {0, ..., 0, s 0 , s l7 ..., s n ,. , , , s N , 0, ..., θ},
gegeben ist, wird dabei sendeseitig ein Verfahren zur Kompression und Kodierung bzw. empfangsseitig ein Verfahren zur Dekompression und Dekodierung eingesetzt, bei dem als Nutzsignal zu j edem aktuellen Abtastzeitpunkt n Differenzbilderis given, a method for compression and coding is used on the transmission side and a method for decompression and decoding is used on the receiving side, in which n difference images are used as the useful signal at each current sampling time
Δsn+m = sn+m- sn V n e IN mit 0 < n ≤ N-m für m = 1Δsn + m = s n + m - s n V ne IN with 0 <n ≤ Nm for m = 1
je zweier zeitlich aufeinanderfolgender Abtastbilder gesendet und - um die für die Übertragung zwischen Signalquelle und Signalsenke benötigte Zeitdauer Δtü verzögert - zum Abtast- Zeitpunkt n+m empfangen werden. Anstelle des AbtastZeitpunktes tn = n-Δt bzw. tm = JT.-Δt wurde in obigen Formeln jeweils abkürzend n bzw. m geschrieben.two time-sequential scan images are sent and - delayed by the time period Δt ü required for the transmission between the signal source and the signal sink - are received at the scan time n + m. Instead of the sampling time t n = n-Δt or t m = JT.-Δt, n or m were abbreviated in the formulas above.
Zur Kodierung und Kompression wird im Allgemeinen eine Diskrete Kosinus-Transformation (DCT) in Zusammenhang mit einer Lauflängen- oder Huffman-Kodierung verwendet. Die aktuellen kodierten Differenzbilder werden zu jedem AbtastZeitpunkt n übertragen, unabhängig davon, ob und wie viele Bildpunkte des zu übertragenden Videosignals während einer Abtastperiode Δt (Δt := n-tn_ι) zwischen zwei zeitlich unmittelbar aufeinanderfolgenden AbtastZeitpunkten n und n+m eine Änderung in ihrer Luminanz (Y), Chrominanz ( Ü, V) und/oder Farbsättigung erfahren. Für eine digitale Bildsignalverarbeitung ist diese Methode jedoch nicht geeignet, weil sie eine hohe Auslastung oder sogar Überlastung des Kodierers und trotz Lauflängen- und Huffman-Kodierung eine entsprechend hohe Datenübertragungsrate verursacht. Dieses Problem besteht dabei nicht nur bei Videosignalen, sondern auch bei Audiosignalen. In den handelsüblichen Übertragungssystemen für Bild- bzw. Tonsignale kommen daher heute Methoden der Quellen- und Kanalkodierung zum Einsatz, mit deren Hilfe die Datenübertragungsrate gesenkt werden kann. Dennoch stellen diese Methoden keine befriedigende Lösung für das Problem dar, möglichst große Kom- pressionsfaktoren zu erreichen, ohne dabei die Qualität des empfangenen Bild- bzw. Tonsignals zu beeinträchtigen.A discrete cosine transform (DCT) is generally used for coding and compression in connection with a run length or Huffman coding. The current coded difference images are transmitted at each sampling time n, regardless of whether and how many pixels of the video signal to be transmitted during a sampling period Δt (Δt: = n -t n _ι) between two immediately consecutive sampling times n and n + m experience a change in their luminance (Y), chrominance (Ü, V) and / or color saturation. However, this method is not suitable for digital image signal processing because it causes a high load or even overload of the encoder and, despite run length and Huffman coding, causes a correspondingly high data transfer rate. This problem does not only exist with video signals, but also with audio signals. Therefore, methods of source and channel coding are used today in the commercial transmission systems for picture and sound signals, with the help of which the data transmission rate can be reduced. Nevertheless, these methods are not a satisfactory solution to the problem of achieving the largest possible compression factors without impairing the quality of the image or audio signal received.
Eine weitere Unzulänglichkeit ist, dass bei dem geschilderten Verfahren zur Übertragung von Differenzsignalen zu jedem Ab- tastzeitpunkt n die begrenzten Fähigkeiten des auditiven bzw. visuellen Wahrnehmungssystems eines Menschen zur Aufnahme und Verarbeitung von akustischen bzw. optischen Signalen unberücksichtigt bleiben. Differenzsignale, deren Betrag einen bestimmten Intensitäts-Unterschied ΔIJN bzw. eine bestimmten Frequenz-Unterschied ΔfjN unterschreiten, können vom menschlichen Gehör bzw. Gesichtssinn nicht wahrgenommen bzw. verarbeitet werden. Dennoch werden bei den konventionellen Übertragungssystemen für Video- bzw. Audiosignale auch Differenzsignale übertragen, die von Störsignalen in der Umgebung des Signalempfängers überlagert und damit teilweise oder ganz verdeckt werden und folglich vom menschlichen Ohr bzw. Auge nicht wahrgenommen werden können. Daher macht es keinen Sinn, Differenzsignale zu jedem AbtastZeitpunkt n zu senden bzw. zu empfangen, da das menschliche Gehör bzw. der menschliche Gesichtssinn ohnehin nicht in der Lage ist,A further inadequacy is that the described method for transmitting differential signals at each sampling time n does not take into account the limited capabilities of a person's auditory or visual perception system for recording and processing acoustic or optical signals. Differential signals, the magnitude of which fall below a specific intensity difference ΔIJN or a specific frequency difference ΔfjN, cannot be perceived or processed by the human ear or face. Nevertheless, in the conventional transmission systems for video and audio signals, differential signals are also transmitted, which are superimposed by interference signals in the vicinity of the signal receiver and are therefore partially or completely covered and consequently cannot be perceived by the human ear or eye. It therefore makes no sense to send or send difference signals at every sampling time n received, since the human ear or the human sense of sight is not able to
a) Intensitätsunterschiede Δl bzw. Frequenzunterschiede Δf, für die ΔJ < ΔIJN bzw. Δf < ΔfTO gilt, unda) intensity differences Δl or frequency differences Δf, for which ΔJ <ΔI JN or Δf <Δf TO applies, and
b) von Störsignalen in der Umgebung der Signalquelle und/oder Signalsenke vollständig verdeckte Nutzsignalanteile ii-uz ( f) für die - z(f) ≤ istör(f) gilt,b) useful signal components ii-uz (f) which are completely hidden by interference signals in the vicinity of the signal source and / or signal sink, for which - z (f) ≤ istör (f) applies,
wahrzunehmen und zu verarbeiten.perceive and process.
Ein weiteres Problem, das im Folgenden geschildert wird, ist nach dem derzeitigen Stand der Technik noch ungelöst. Falls ein Teilbereich einer Bildszene eine Helligkeitsänderung erfährt, zum Beispiel bei einem kurzzeitigen Schwenken der Videokamera gegen die Sonne oder einen stark lichtreflektierenden metallischen Gegenstand, führt dies zu einer kurzzeitigen (in der Regel wenige Abtastperioden Δt andauernden) Überbe- lichtung des Films, da eine automatische Blendenregelung einer in die Kamera integrierten ALC- orrichtung erst nach der Verzögerungszeit ΔtVB (ΔtVB > Δt) wirksam wirksam werden kann. Dies hat zur Konsequenz, dass einzelne Verstärkerstufen aufgrund dieser Signalspitzen übersteuert werden, und es kommt zu Signalverzerrungen. Nach dem Wirksamwerden des oben erwähnten ALC-Verfahrens kann allerdings nur eine Helligkeits- regulierung für das gesamte Aufnahmebild durchgeführt werden, nicht jedoch für einzelne Teilbereiche des Bildes. Das bedeutet, dass bei Einsatz der automatischen Blendenregelung stets alle Bildpunkte eines Wiedergabebildes eine Helligkeitsänderung erfahren, obwohl unter Umständen nur ein kleiner Teilbereich der aufgenommenen Szene heller bzw. dunkler geworden ist. Bei der kurzzeitigen Aufnahme eines Gegenstands bzw. einer Person vor einem sehr hellen Hintergrund (zum Beispiel bei einer Gegenlichtaufnahme) erscheint der abgebildete Gegenstand bzw. die Person auf dem Wiedergabebild, bezogen auf den Hintergrund, als extrem dunkel.Another problem, which is described below, is still unsolved according to the current state of the art. If a sub-area of a picture scene experiences a change in brightness, for example when the video camera is briefly swiveled towards the sun or a strongly light-reflecting metallic object, this leads to a brief (usually a few scanning periods Δt) overexposure of the film, as an automatic Aperture control of an ALC device integrated in the camera can only take effect after the delay time Δt V B (Δt V B> Δt). The consequence of this is that individual amplifier stages are overdriven due to these signal peaks, and signal distortion occurs. After the above-mentioned ALC process has taken effect, however, only a brightness regulation can be carried out for the entire recorded image, but not for individual partial areas of the image. This means that when the automatic aperture control is used, all the pixels of a playback image always experience a change in brightness, although under certain circumstances only a small part of the recorded scene has become lighter or darker. When taking a short picture of an object or a person against a very bright background (for example in the case of a backlight shot), the depicted object or person appears extremely dark on the playback image in relation to the background.
D. Durch die Erfindung zu lösende spezielle AufgabeD. Special task to be solved by the invention
Der vorgelegten Erfindung liegt daher die Aufgabe zugrunde, die bestehende Situation mit technischen Mitteln zu verbessern. Somit widmet sich die Erfindung vorrangig der Aufgabe, ein zuverlässig arbeitendes, verbessertes Verfahren zur Regelung der Kompression und Kodierung bzw. Dekompression und De- kodierung für die Übertragung von digitalen bzw. analogen Datensignalen, zum Beispiel für Videosignale, bereitzustellen. Auf diese Weise kann der Anteil redundanter bzw. irrelevanter Information reduziert und damit die Datenübertragungsrate R verringert werden.The object of the present invention is therefore to improve the existing situation using technical means. The invention is therefore primarily devoted to the task of providing a reliable, improved method for regulating the compression and coding or decompression and decoding for the transmission of digital or analog data signals, for example for video signals. In this way, the proportion of redundant or irrelevant information can be reduced and thus the data transmission rate R can be reduced.
Diese Aufgabe wird durch ein Gerät mit Merkmalen nach Patentanspruch 1 gelöst. Die erfindungsgemäße Lösung ist dabei nicht auf Anwendungen im Bereich der Videoübertragungstechnik beschränkt. Sie kann auch bei der Kompression von Audiosignalen erfolgreich eingesetzt werden. Da sowohl Video- als auch Audiosignale einen großen Anteil irrelevanter bzw. redundanter Information aufweisen, können diese Signalanteile bei der Übertragung entfallen, ohne dass eine störende Beeinträchtigung des empfangenen Signals durch Fehlen wichtiger Bildbzw. Tonkomponenten wahrgenommen wird.This object is achieved by a device with features according to claim 1. The solution according to the invention is not limited to applications in the field of video transmission technology. It can also be used successfully when compressing audio signals. Since both video and audio signals have a large proportion of irrelevant or redundant information, these signal components can be omitted during transmission without the interference of the received signal due to the lack of important picture or. Sound components is perceived.
E. Erfindungsgemäße Lösung der speziellen Aufgabe gemäß den Patentansprüchen und Vorteile dieser LösungE. Solution according to the invention for the special task according to the claims and advantages of this solution
Zu Patentanspruch 1 :Regarding claim 1:
Die vorliegende Erfindung betrifft ein Verfahren zur Regelung von Signalkomponenten mindestens eines Datensignals (DS) . Zur Vereinfachung der Schreibweise soll im Folgenden nur noch von einem Datensignal (DS) die Rede sein, wobei nicht mehr zwischen dem Datensignal (DS) und Signalkomponenten dieses Datensignals (DS) unterschieden wird. Das Datensignal (DS) kann beispielsweise von einer Signalquelle (102) zu einer Signal- senke (111) übermittelt werden. Bei der Signalquelle (102) kann es sich beispielsweise um einen Signalsender bzw. um ein Aufnahmegerät für Bewegtbildsignale (Fernsehkamera bzw. Videokamera) handeln, bei der Signalsenke (111) um ein Empfangsgerät für Bewegtbildsignale (Monitor bzw. Display) . Die Regelung kann dabei mit Hilfe mindestens eines digitalen Korrektursignals c (n) (KS) zu diskreten Zeitpunkten erfolgen, in Abhängigkeit davon, ob und wann sendeseitig signifikante Änderungen einzelner Komponenten des Datensignals (DS) vorliegen. Mit Hilfe dieses Verfahrens ist es möglich, kurzzeitige Störspitzen bzw. -einbrüche einzelner Komponenten im Datensignal (DS) bei der Übertragung zu vernachlässigen. Demzufolge kann die Datenübertragungsrate R für die Übertragungs- strecke zwischen Signalsender (102) und Signalempfänger (111) entscheidend gesenkt werden. Bei dem Datensignal (DS) kann es sich entweder um ein analoges Signal s { t) oder ein digitales Signal s (n) handeln, das man nach Abtastung (unter Einhaltung des Shannon-Theorems) und Quantisierung des analogen Signals s { t) erhält. Die Erfindung kann beispielsweise als Bestandteil eines Verfahrens zur Kompression und Kodierung, Übertra- gung sowie zur Dekodierung und Dekompression digitaler Signale s (n) eingesetzt werden. Die Übertragung der Signalkomponenten des Datensignals (DS) kann dabei diskontinuierlich (das heißt zu diskreten Zeitpunkten in regelmäßigen oder unregelmäßigen Zeitabständen) erfolgen, sobald sendeseitig neue Signalkomponenten vorliegen. Mögliche Anwendungsbeispiele der vorliegenden Erfindung sind beispielsweise die komprimierte Übertragung bzw. Speicherung der Luminanz- (Y) und/oder Chrominanz-Signalkomponenten ( Ü, V) eines digitalen Videosignals s (n) (DS) bei digitalen Bildübertragungssystemen oder die komprimierte Übertragung bzw. Speicherung der Lautstärke- (L) und Frequenzkomponenten (f) von Audiosignalen s (n) (DS) , etwa im HiFi-, Multimedia- bzw. Telekommunikations-Bereich, insbesondere für UMTS-Anwendungen. Denkbar sind aber auch Anwendungsbeispiele, bei denen Signalsender, Übertragungsstrecke und Signalempfänger in einem Gerät lokalisiert sind, wie zum Beispiel bei der Speicherung der Luminanz bzw. Chrominanz einer aufgenommenen Bildsequenz in Videokameras (102) . Das Sendesignal (DS) ist in diesem Fall das digitalisierte YUV-Sig- nal, das an der Ausgangsstufe des Bildaufnehmers (102) nach Umrechnung der RGB- in die YUV-Komponenten ausgegeben wird. Dem Ubertragungssignal entspricht in diesem Fall das auf einem Speichermedium, zum Beispiel einer Videokassette, aufgenommene komprimierte und kodierte YUV- Signal . Das Empfangssignal ist in diesem Fall das auf einem Bildschirm oder Dis- play (111) , das zum Beispiel in die Videokamera (102) integriert sein kann, ausgegebene -RGB-Signal, das man nach Umrechnung des dekodierten und dekomprimierten YC/y-Signals vom YUV- ins RGB-System erhält.The present invention relates to a method for regulating signal components of at least one data signal (DS). To simplify the spelling, only from be a data signal (DS), it being no longer differentiated between the data signal (DS) and signal components of this data signal (DS). The data signal (DS) can be transmitted, for example, from a signal source (102) to a signal sink (111). The signal source (102) can be, for example, a signal transmitter or a recording device for moving picture signals (television camera or video camera), and the signal sink (111) can be a receiving device for moving picture signals (monitor or display). The regulation can take place with the aid of at least one digital correction signal c (n) (KS) at discrete points in time, depending on whether and when significant changes of individual components of the data signal (DS) are present on the transmission side. With the help of this method it is possible to neglect short-term interference peaks or dips in individual components in the data signal (DS) during transmission. As a result, the data transmission rate R can be decisively reduced for the transmission path between signal transmitter (102) and signal receiver (111). The data signal (DS) can be either an analog signal s {t) or a digital signal s (n), which is obtained after sampling (while adhering to the Shannon theorem) and quantization of the analog signal s {t) , The invention can be used, for example, as part of a method for compression and coding, transmission, and for decoding and decompression of digital signals s (n). The signal components of the data signal (DS) can be transmitted discontinuously (that is, at discrete times at regular or irregular time intervals) as soon as new signal components are available on the transmission side. Possible application examples of the present invention are, for example, the compressed transmission or storage of the luminance (Y) and / or chrominance signal components (Ü, V) of a digital video signal s (n) (DS) in digital image transmission systems or the compressed transmission or storage the volume (L) and frequency components (f) of audio signals s (n) (DS), for example in the hi-fi, multimedia or telecommunications sector, in particular for UMTS applications. However, application examples are also conceivable in which the signal transmitter, transmission path and signal receiver are localized in one device, such as for example when storing the luminance or chrominance of a recorded image sequence in video cameras (102). In this case, the transmission signal (DS) is the digitized YUV signal, which is output at the output stage of the image sensor (102) after the RGB components have been converted into the YUV components. In this case, the transmission signal corresponds to the compressed and encoded YUV signal recorded on a storage medium, for example a video cassette. In this case, the received signal is the -RGB signal which is output on a screen or display (111) which can be integrated, for example, in the video camera (102) and which is obtained after conversion of the decoded and decompressed YC / y signal from the YUV to the RGB system.
Zu Patentanspruch 2 :Regarding claim 2:
Zur Reduzierung der Datenübertragungsrate R auf der Übertragungsstrecke zwischen Signalsender (102) und Signalempfänger (111) kann zweckmäßigerweise ein Verfahren zur Erzeugung, Ü- bertragung und Verarbeitung eines digitalen Differenzsignals (DDS)To reduce the data transmission rate R on the transmission path between signal transmitter (102) and signal receiver (111), a method for generating, transmitting and processing a digital difference signal (DDS) can expediently be used.
As (n+m, m) : = s (n+m) - s {n) V n, m e IN mit 0 < n ≤ N-mAs (n + m, m): = s (n + m) - s {n) V n, m e IN with 0 <n ≤ N-m
eingesetzt werden, das durch Subtraktion des digitalen Daten- Signals s (n) (DS) von einem um Abtastzeitpunkte verschobenen digitalen Datensignal s {n+m) gewonnen wird. Der mit der sendeseitigen Ermittlung, Übertragung und empfangsseitigen Auswertung der Differenzsignale Δs (n+-7.,-τ?) (DDS) verbundene Vorgang kann für jeden Abtastzeitpunkt n (mit 0 ≤ n ≤ N-m) die folgenden Schritte beinhalten: 1. Zum Abtastzeitpunkt n+m wird der Wert der Signalanderung mindestens eines digitalen Datensignals s (n) (DS) sendeseitig durch Bildung der Differenz des aktuellen Abtastwerts sn+m zum Zeitpunkt n+m versus eines zu einem früheren Zeitpunkt n sendeseitig gebildeten Abtastwerts sn ermittelt. 2. Der erhaltene Differenzsignalwertare used, which is obtained by subtracting the digital data signal s (n) (DS) from a digital data signal s {n + m) shifted by sampling times. The process associated with the transmission-side determination, transmission and reception-side evaluation of the difference signals Δs (n + -7., - τ?) (DDS) can be done for each sampling time n (with 0 ≤ n ≤ Nm) include the following steps: 1. At the sampling time n + m, the value of the signal change of at least one digital data signal s (n) (DS) is transmitted on the transmission side by forming the difference of the current sampling value s n + m at the time n + m versus one at an earlier time Time n sample s n formed on the transmission side is determined. 2. The difference signal value obtained
ΔSn+ : = Sn+m ~ Sn ΔS n + : = Sn + m ~ S n
wird mit Vorzeichen und Betrag zum Abtastzeitpunkt n+m sendeseitig zu einer Bitsequenz digital kodiert. 3. Die Bitsequenz des aktuellen kodierten Differenzsignalwerts wird zum Abtastzeitpunkt n+m zu mindestens einem Empfänger übertragen. 4. Die übertragene Bitsequenz wird nach Verstreichen der Ü- bertragungszeit Δtü für die Übertragung des Differenzsignal- werts Δsn+m vom Signalsender zum Signalempfänger empfangssei- tig zum Abtastzeitpunkt n+m dekodiert. 5. Der vorzeichenbehaftete Betrag der Signalwertänderung des aktuell empfangenen Differenzsignalwerts Δsn+m wird zur Rekonstruktion des Datensignal-Abtastwerts sn+m empfangsseitig zum Abtastzeitpunkt n+m zu der entsprechenden Signalkomponente des zum AbtastZeitpunkt n empfangsseitig ausgegebenen Datensignal-Abtastwert sn addiert. 6. Der berechnete neue Abtastwertis digitally encoded with a sign and amount at the sampling time n + m on the transmission side to form a bit sequence. 3. The bit sequence of the current coded difference signal value is transmitted to at least one receiver at the sampling time n + m. 4. After the transmission time Δtü has elapsed, the transmitted bit sequence for the transmission of the difference signal value Δs n + m from the signal transmitter to the signal receiver is decoded on the receiving side at the sampling time n + m. 5. The signed amount of the change in the signal value of the currently received difference signal value Δs n + m is added to the corresponding signal component of the data signal sample s n output on the receiver side at the sampling time n at the sampling time n n for the reconstruction of the data signal sample s n + m . 6. The calculated new sample
des Datensig als (DS) wird empfangsseitig zum AbtastZeitpunkt n+m ausgegeben.of the data signal as (DS) is output on the receiving side at the sampling time n + m.
Der Schutzumfang der Erfindung beinhaltet dabei auch Ausführungsbeispiele, die nur den Sende- bzw. Empfangszweig allein beinhalten, also nur die Schritte 1 bis 3 bzw. nur die Schritte 4 bis 6. Zu Patentanspruch 3 :The scope of protection of the invention also includes exemplary embodiments which contain only the transmitting or receiving branch alone, that is to say only steps 1 to 3 or only steps 4 to 6. Regarding claim 3:
Mit Hilfe mindestens eines sendeseitig ermittelten digitalen Korrektursignals c (n) (KS) kann in die Übertragung des Diffe- renzsignals Δs (n+-7.,-τ?) (DDS) gezielt eingegriffen werden. Diese Eingriffe können dabei zu diskreten Zeitpunkten erfolgen, in Abhängigkeit davon, ob und/oder wie lange sendeseitig Änderungen des Datensignals (DS) vorliegen. In einer speziellen Ausführungsform der vorliegenden Erfindung ist das Kor- rektursignal c (n) (KS) eine Konstante, die als mittlerer Luminanz- bzw. Chrominanzwert über alle Bildpunkte des digitalen Bildsignals s (n) zu einem Zeitpunkt n ermittelt wird; allgemein ist c (n) jedoch eine Funktion fx des unkorrigierten Sendesignals s (n) . Das korrigierte Sendesignal s^orx (n) ergibt sich dabei als Funktion f2 des originalen Sendesignals s (n) und dieses Korrektursignals c (n) . Zusammengefasst ergibt sich also:With the help of at least one digital correction signal c (n) (KS) determined on the transmission side, the transmission of the difference signal Δs (n + -7., - τ?) (DDS) can be intervened in a targeted manner. These interventions can take place at discrete times, depending on whether and / or for how long there are changes in the data signal (DS) on the transmission side. In a special embodiment of the present invention, the correction signal c (n) (KS) is a constant which is determined as a mean luminance or chrominance value over all pixels of the digital image signal s (n) at a time n; in general, however, c (n) is a function f x of the uncorrected transmission signal s (n). The corrected transmission signal s ^ orx (n) results as a function f 2 of the original transmission signal s (n) and this correction signal c (n). In summary, the result is:
Figure imgf000031_0001
skorr (n) = f2 ( s (n) , c (n) ) = f2 ( s (n) , fλ ( s (n) ) ) .
Figure imgf000031_0001
s corr (n) = f 2 (s (n), c (n)) = f 2 (s (n), f λ (s (n))).
Zur Vereinfachung der Nomenklatur soll im Folgenden nicht mehr zwischen den Signalen s (n) und skθrr(n) unterschieden werden, sondern es soll nur noch von einem Sendesignal s (n) die Rede sein. Eine Übertragung des aus s (n) ermittelten digitalen Differenzsignals (DDS) findet dabei erfindungsgemäß nur dann statt, falls das Datensignal s {n) (DS) zu mindestens einem vorgegebenen Zeitpunkt n wenigstens einen als Reaktionsniveau geeignet festgelegten Schwellwert σref über- bzw. unterschreitet. Dieser Schwellwert σref kann idealerweise so festgelegt werden, dass die zum Abtastzeitpunkt (n+m) ermittelte Änderung Δsn+ra des Signals s (n) von einer beliebigen Person gerade noch registriert werden kann. Zu Patentanspruch 4 :In order to simplify the nomenclature, a distinction should no longer be made between the signals s (n) and s kθrr (n) in the following, but only a transmission signal s (n). According to the invention, the digital difference signal (DDS) determined from s (n) is only transmitted if the data signal s {n) (DS) exceeds or exceeds at least one predefined point in time n at least one threshold value σ ref suitable as a reaction level. below. This threshold value σ ref can ideally be set so that the change Δs n + ra in the signal s (n) determined at the time of sampling (n + m) can just be registered by any person. Regarding claim 4:
Bei mindestens einem der als Reaktionsniveau verwendeten Schwellwerte kann es sich dabei um eine fest vorgegebene Verzögerungszeitdauer Δtv (z.B. Δtv = 5,0s) handeln, die unter Umständen mehrere hundert Abtastperioden Δt umfassen kann. Durch das Abwarten dieser Zeitdauer vor dem Versenden eines neuen Abtastwerts kann gewährleistet werden, dass keine kurzzeitig auftretenden, störungsbedingten Signalspitzen im Differenzsignal As (n+m, m) übertragen werden, die zu einer Über- Regelung des Empfangsgeräts führen können. Somit werden nur langfristig andauernde Änderungen eines Signals übertragen, also Signaländerungen, die mindestens für die Dauer Δtv nach Versenden eines Abtastwerts sn auf einem näherungsweise konstanten Wert bleiben. Folglich gilt dannAt least one of the threshold values used as the reaction level can be a predefined delay time period Δt v (for example Δt v = 5.0s), which may include several hundred sampling periods Δt. Waiting for this period of time before sending a new sample value can ensure that no short-term, interference-related signal peaks are transmitted in the differential signal As (n + m, m), which can lead to over-regulation of the receiving device. Thus, only long-term changes in a signal are transmitted, that is to say signal changes which remain at an approximately constant value at least for the duration Δt v after a sample value s n has been sent . Hence then
Δtv >> Δt bzw. k » 1 .Δt v >> Δt or k »1.
Mit Hilfe dieser Verzögerungszeitdauer kann abgewartet werden, bis kurzzeitig andauernde Stδrspitzen in einem aufgenom- menen Signal (zum Beispiel bei einer kurzzeitigen Gegenlichtaufnahme eines Bildobjekts mit einer Videokamera) abgeklungen sind. Dadurch kann vermieden werden, dass beispielsweise bei einer kurzzeitigen Übersteuerung bzw. Überbelichtung einzelner Frequenz- bzw. Bildbereiche eines aufgenommenen Audio- bzw. Videosignals durch den Einsatz einer Regelschaltung alle Frequenz- bzw. Bildbereiche in ihrer Intensität herabgesetzt werden.With the aid of this delay time, it can be waited until briefly persistent interference peaks in a recorded signal (for example in the case of a brief backlighting of an image object with a video camera) have subsided. In this way it can be avoided that, for example in the event of a brief overload or overexposure of individual frequency or image areas of a recorded audio or video signal, all frequency or image areas are reduced in intensity by using a control circuit.
Zu Patentanspruch 5 : Bei mindestens einem der als Reaktionsniveau verwendetenRegarding claim 5: In at least one of the reaction levels used
Schwellwerte σref kann es sich beispielsweise um den fest vorgegebenen Effektivwert ref/ 2 einer Amplitude 5ref, die Frequenz fref und/oder die Phase φref eines analogen sinusoidalen Referenzsignals sref ( t) =Sref-cos (2π- freft+φre ) handeln. Dabei kann sref(t) beispielsweise ein fest vorgegebenes Wechselspannungssignal Ure (t) =C7refcos (2π- freft+φref) m t dem Effektivwert Uref/ /2 oder WechselStromsignal iref ( ) =Iref cos (2π- reft+φref) mit dem Effektivwert Jref/-v2 sein. Sofern die korrespondierenden Amplituden-, Frequenz- bzw. Phasenparameter sn, fn bzw. φn eines digitalen Datensignals s (n) mindestens einen dieser Schwellwerte über- bzw. unterschreiten, wird zum Abtastzeitpunkt n+m die Übertragung eines neuen Differenzsig- nalwerts Δsn+m/ Δfn+m bzw. Δφn+m gegenüber dem AbtastZeitpunkt n freigegeben. Somit kann gewährleistet werden, dass nur die von einem Menschen wahrnehmbaren Signaländerungen gesendet, übertragen und empfangen werden. Handelt es sich bei dem digitalen Datensignal s (n) um ein digitales Video- oder Audio- signal, kann auf die Übertragung von Δφn+m verzichtet werden, da das menschliche WahrnehmungsSystem nicht in der Lage ist, Phaseninformationen φ(t) bzw. Phasenänderungen Δφ(t) analoger optischer bzw. akustischer Signale s ( t) zu registrieren und zu verarbeiten.Threshold values σ re f can be, for example, the fixed rms value ref / 2 of an amplitude 5 ref , the frequency f ref and / or the phase φ ref of an analog sinusoidal Act reference signal s ref (t) = S re f-cos (2π- f re ft + φ re ). In this case, s ref (t) can, for example, be a predetermined AC voltage signal Ure (t) = C7 re fcos (2π- f re ft + φref) with the effective value U r e f / / 2 or alternating current signal i re f () = I re f cos (2π- ref t + φ re f) with the RMS value J ref / -v2. If the corresponding amplitude, frequency or phase parameters s n , f n or φ n of a digital data signal s (n) exceed or fall below at least one of these threshold values, the transmission of a new differential signal value becomes at the sampling time n + m Δs n + m / Δf n + m or Δφ n + m compared to the sampling time n released. This ensures that only the signal changes that can be perceived by a human being are transmitted, transmitted and received. If the digital data signal s (n) is a digital video or audio signal, the transmission of Δφ n + m can be dispensed with, since the human perception system is unable to provide phase information φ (t) or To register and process phase changes Δφ (t) of analog optical or acoustic signals s (t).
Zu Patentanspruch 6 :Regarding claim 6:
Ein spezielles Ausführungsbeispiel der Erfindung befasst sich mit einer Anwendung im Bereich der Datenübertragungstechnik für Videosignale. Es fußt auf dem oben beschriebenen Verfah- ren zur Übertragung von Differenzbildern, die durch Subtraktion der YUV-Komponenten von den Abtastbildern sn+m und sn zu den unmittelbar oder nicht unmittelbar zeitlich aufeinanderfolgenden Abtastzeitpunkten n und n+m entstehen. Dazu müssen der Signalsender und der Signalempfänger über geeignete tech- nische Komponenten zur Aufnahme (z.B. Videokamera), Zwisc en- speicherung (z.B. Videorekorder und Videokassette) und Wiedergabe von Videosignalen (z.B. Bildschirm oder Display) verfügen. Ferner sollte der Signalsender mit Vorrichtungen zur Analog-Digital-Wandlung, Kompression und Kodierung von analogen Videosignalen ausgestattet sein; ebenso sollte der Signalempfänger zur Dekodierung, Dekompression und Digital-Ana- log-Wandlung von digitalen Videosignalen tauglich sein. Die Kanalkapazität C des Übertragungskanals, also das Produkt aus Bandbreite B und Übertragungsbitrate R, sollte idealerweise groß genug sein, um bei Einhaltung des Shannon-Theorems sogenannte Aliasing-Effekte zu vermeiden und Videosignale in Echtzeit ohne Einbuße an Wiedergabequalität übertragen zu können.A special embodiment of the invention is concerned with an application in the field of data transmission technology for video signals. It is based on the method described above for the transmission of difference images, which arise by subtracting the YUV components from the scan images s n + m and s n at the immediately or not immediately consecutive sampling times n and n + m. To do this, the signal transmitter and the signal receiver must have suitable technical components for recording (eg video camera), intermediate storage (eg video recorder and video cassette) and playback of video signals (eg screen or display). Furthermore, the signal transmitter with devices for Analog-to-digital conversion, compression and coding of analog video signals; the signal receiver should also be suitable for decoding, decompression and digital-analog conversion of digital video signals. The channel capacity C of the transmission channel, i.e. the product of bandwidth B and transmission bit rate R, should ideally be large enough to avoid so-called aliasing effects if the Shannon theorem is adhered to and to be able to transmit video signals in real time without any loss in playback quality.
Zu Patentanspruch 7 :Regarding claim 7:
Bei der fest vorgegebenen Intensität und/oder Frequenz einesAt the fixed intensity and / or frequency of one
Referenzsignals sref(t) kann es sich um mindestens einen Lumi- nanz- (Yref) und/oder Chrominanzwert ( Uref, Vret) eines vorgegebenen Videosignals handeln, mit dem die Abtastwerte der Luminanz (Y) bzw. Chrominanz [ U, V) eines empfangenen digitalen Videosignals s (n) verglichen werden. Erfindungsgemäß werden diese Differenzbilder diskontinuierlich übertragen, sofern mindestens ein geeignet festgelegter Zeit-, Y- , U- bzw. V- Schwellwert überschritten wird. Bilddaten werden also nur dann gesendet, wenn das neue Abtastbild Bildbereiche mit neuen und für den Betrachter nicht irrelevanten bzw. nicht redundanten Informationen enthält. Auf diese Weise kann die im Ubertragungssignal enthaltene Irrelevanz bzw. Redundanz und damit die Datenübertragungsrate im Vergleich zu einer periodisch wiederholten Differenzbildübertragung entscheidend verringert werden. Eine Erneuerung des aktuellen angezeigten Bildes im Endgerät eines Empfängers wird nur für diejenigen Bildbereiche vorgenommen, bei denen relevante Änderungen der Helligkeit, des Farbtons und/oder der Farbsättigung registriert werden. Die Schwellwerte Yref, c7ref und Vret können aus den Helligkeits-, Farbton- und/oder Farbsättigungswerten der Bildpunkte des Referenzsignals sref ermittelt werden. Zu Patentanspruch 8 :Reference signal s ref (t) can be at least one luminance (Y re f) and / or chrominance value (U re f, V re t) of a predetermined video signal with which the samples of the luminance (Y) or Chrominance [U, V) of a received digital video signal s (n) are compared. According to the invention, these difference images are transmitted discontinuously, provided that at least one suitably defined time, Y, U or V threshold value is exceeded. Image data are therefore only sent if the new scan image contains image areas with new information that is not irrelevant or non-redundant for the viewer. In this way, the irrelevance or redundancy contained in the transmission signal and thus the data transmission rate can be decisively reduced in comparison to a periodically repeated transmission of the difference image. A renewal of the current displayed image in the terminal of a receiver is only carried out for those image areas in which relevant changes in brightness, hue and / or color saturation are registered. The threshold values Y re f, c7 ref and V ret can be determined from the brightness, hue and / or color saturation values of the pixels of the reference signal s re f. Regarding claim 8:
In fast allen Systemen, die eine Art von Bildkodierung mit Datenreduktion verwenden, ist der schlussendliche Empfänger des wiederhergestellten Bildsignals (Videosignal oder Stand- bild) das menschliche Auge. Es sollte daher von vorherein klar sein, dass Anstrengungen unternommen werden müssen, ein Modell der Arbeitsweise des menschlichen Sehens ("Human Visual System", HVS) in die Verarbeitungskette miteinzubezie- hen. Denn nur so kann sichergestellt werden, dass a) beim Ko- diervorgang die Bits vorzugsweise denjenigen Teilen im Aus- gangssignal zugewiesen werden, die denjenigen Strukturen im Bild entsprechen, auf welche das Auge am empfindlichsten reagiert, und dass b) ein damit verbundenes psychooptisches Qualitätsmaß geschaffen werden kann.In almost all systems that use a type of image coding with data reduction, the final receiver of the restored image signal (video signal or still image) is the human eye. It should therefore be clear beforehand that efforts must be made to include a model of the human visual system ("Human Visual System", HVS) in the processing chain. This is the only way to ensure that a) during the coding process, the bits are preferably assigned to those parts in the output signal that correspond to those structures in the image to which the eye is most sensitive, and that b) a psycho-optical quality measure associated therewith can be created.
Diese Auswertung ist deswegen notwendig, weil das menschliche Sehvermögen unter bestimmten Umständen, zum Beispiel bei Vorhandensein einer breitbandigen Störstrahlung großer Intensität in der Umgebung des Signalempfängers, nicht in der Lage ist, Luminanz- bzw. Chrominanzänderungen eines Nutzsignals wahrzunehmen. Im Folgenden wird daher kurz auf die wichtigsten, aus Sehversuchen an einer großen Anzahl von Versuchspersonen gewonnenen und vielfach bestätigten Erkenntnisse in diesem Zusammenhang eingegangen.This evaluation is necessary because under certain circumstances, human eyesight is unable to perceive changes in luminance or chrominance of a useful signal under certain circumstances, for example in the presence of broadband interference radiation of high intensity in the vicinity of the signal receiver. In the following, the most important insights gained from visual tests on a large number of test subjects and confirmed many times in this context are briefly discussed.
Für subjektive Sehtests werden heute standardisierte Verfahren eingesetzt, die international anerkannt sind, um die Vergleichbarkeit verschiedener Messergebnisse zu gewährleisten. Technische Randbedingungen wie Betrachtungsabstand, Hinter- grundbeleuchtung, die Art der Präsentation der Testbilder und Testsequenzen, die Fragestellungen und das Beurteilungsverfahren sind dabei eindeutig festgelegt . Solche Verfahren werden in der Form von Empfehlungen einer Expertengruppe der "International Telecommunications Union" (ITU) festgelegt. Die technische Entwicklung stellt heute immer wieder neue An- forderungen an die Testverfahren, so dass die vorhandenen Methoden modifiziert und neue Verfahren entwickelt werden müssen.Standardized procedures that are internationally recognized are used for subjective vision tests today to ensure the comparability of different measurement results. Technical boundary conditions such as viewing distance, background lighting, the type of presentation of the test pictures and test sequences, the questions and the assessment procedure are clearly defined. Such procedures are laid down in the form of recommendations from a group of experts from the "International Telecommunications Union" (ITU). Today's technical development keeps making new demands. demands on the test procedures, so that the existing methods have to be modified and new procedures have to be developed.
Die Einbindung des menschlichen Sehvermögens in die Übertragungskette vom Signalsender zum Signalempfänger ist wichtig, damit eine Reduzierung der Irrelevanzinformation sinnvoll auf den menschlichen Gesichtssinn angepasst werden kann. Dazu ist es notwendig, einige wichtige Effekte zu kennen, die beim Se- hen eine entscheidende Rolle spielen.The integration of human eyesight into the transmission chain from the signal transmitter to the signal receiver is important so that a reduction in the irrelevance information can be meaningfully adapted to the human sense of sight. To do this, it is necessary to know some important effects that play a crucial role in vision.
Beim Sehen wird das durch Pupille und Linse in das Innere des menschlichen Auges einfallende Licht auf die lichtempfindliche und ca. 1LN = 17 mm entfernte Netzhaut abgebildet. Die auftreffende Lichtintensität wird dabei mittels einer fotochemischen Reaktion durch zwei Arten von Sensoren, Stäbchen und Zapfen, ermittelt. Die Stäbchen besitzen die größere Empfindlichkeit, unterscheiden jedoch keine Farben. Dafür arbeiten sie noch bei sehr wenig Licht (Nachtsehen bzw. skopti- sches Sehen) . Die Zapfen sind zuständig für stärkere Intensitäten (Tagessehen bzw. photopisches Sehen) , feine Auflösungen und das Farbensehen. Für den letztgenannten Vorgang sind sie in drei verschiedene Arten aufgeteilt, wobei jede ein Absorptionsmaximum an einer anderen Stelle innerhalb des sichtbaren Spektrums besitzt (bei Rot-Orange, Grün und Blau-Violett) . Zusammen erlaubt das System mit zweierlei Sensoren das Sehen über einen Intensitäts- bzw. Leuchtdichtebereich von 12 Größenordnungen (L = 10"6 bis 105 cd/m2) . Das bedeutet, dass innerhalb der verschiedenen Stufen des Wahrnehmungsprozesses eine Anpassung an die Hintergrundsintensität in einem großen Bereich stattfindet.When seeing, the light incident through the pupil and lens into the interior of the human eye is imaged on the light-sensitive retina approx. 1 LN = 17 mm away. The incident light intensity is determined by means of a photochemical reaction using two types of sensors, rods and cones. The chopsticks are more sensitive, but do not differentiate between colors. To do this, they still work with very little light (night vision or skoptic vision). The cones are responsible for stronger intensities (day vision or photopic vision), fine resolutions and color vision. For the latter process, they are divided into three different types, each with an absorption maximum at a different location within the visible spectrum (for red-orange, green and blue-violet). Together with two sensors, the system allows vision over an intensity or luminance range of 12 orders of magnitude (L = 10 "6 to 10 5 cd / m 2 ). This means that within the various stages of the perception process, an adjustment to the background intensity in a large area takes place.
Wie bereits erwähnt, ist das Auge in der Lage, einen enorm großen Helligkeitsbereich (ca. 12 Zehnerpotenzen) zu verar- beiten, von der Intensität des Sternenlichts bis zur Schmerz- grenze (Blendung) . Da die Pupille ihren Durchmesser aber nur im Verhältnis 4:1 regeln kann, muss eine sehr weiträumige Anpassung an die durchschnittliche Szenenhelligkeit auf Rezeptorenebene der visuellen Wahrnehmung stattfinden, denn es ist weder möglich, die Erregerfrequenz für die Übertragungsim- pulse auf den Nervenfasern um einen Faktor 109 - 1010 zu variieren, noch ist es in der Praxis notwendig. Für den täglichen Gebrauch ist ein viel geringerer Dynamikumfang ausreichend. Der Dynamikumfang des Auges (bezüglich der Helligkeitsinfor- mation) umfaßt etwa zwei Zehnerpotenzen. Verschiedene Versuchsergebnisse bestätigen, dass bei gegebener Hintergrundhelligkeit (für die Adaption des Auges) die Anzahl der unterscheidbaren Helligkeitsstufen im Bereich von etwa 150 bis 250 liegt . Aus dem oben beschriebenen Experiment gewinnt man die wichtige Erkenntnis, dass die kleinste wahrnehmbare Helligkeitsdifferenz nicht als konstanter Wert erscheint, sondern abhängig vom konstanten Verhältnis der Umgebungsbeleuchtung ist. Das visuelle System reagiert folglich, zumindest an oder in der Nähe der Schwelle, auf geringfügige Veränderungen, was bedeutet, dass die Wahrnehmung der Helligkeit vom Verhältnis der Objekt- zur Umgebungsbeleuchtungen viel mehr abhängt als vom Absolutwert der ersteren. Für die Bildverarbeitungstechnik bedeutet dies, dass eine Bildstörung (z.B. durch Übertragungsfehler oder Quantisierungsrauschen) innerhalb dunkler Bildanteile viel stärker bemerkt wird als anderswo. In derAs already mentioned, the eye is able to process an enormously large brightness range (approx. 12 powers of ten), from the intensity of the starlight to the pain limit (glare). However, since the pupil can only regulate its diameter in a ratio of 4: 1, a very extensive adjustment to the average scene brightness at the receptor level of visual perception must take place, because it is neither possible to adjust the excitation frequency for the transmission impulses on the nerve fibers by a factor 10 9 - 10 10 to vary, it is still necessary in practice. A much lower dynamic range is sufficient for daily use. The dynamic range of the eye (with regard to the brightness information) comprises approximately two powers of ten. Various test results confirm that for a given background brightness (for the adaptation of the eye), the number of distinguishable brightness levels is in the range from about 150 to 250. The important finding from the experiment described above is that the smallest perceptible difference in brightness does not appear as a constant value, but is dependent on the constant ratio of the ambient lighting. The visual system thus responds, at least at or near the threshold, to slight changes, which means that the perception of brightness depends much more on the ratio of object to ambient lighting than on the absolute value of the former. For the image processing technology, this means that an image disturbance (eg due to transmission errors or quantization noise) is noticed much more strongly in dark parts of the image than elsewhere. In the
Praxis werden durch die immer vorhandene Umgebungsbeleuchtung in der Nähe des Displays sogar eventuelle Verschlechterungen, (z.B. hervorgerufen durch Rauschen) in dunklen Flächen weniger stark wahrgenommen als in helleren Bildanteilen. Es be- steht somit eine viel komplexere Beziehung zwischen der Wahrnehmung direkt an der visuellen Helligkeitunterscheidbar- keitsschwelle, in Bereichen in der Nähe der Schwelle und in entfernteren Bereichen, als man auf den ersten Blick vermuten könnte . Es ist offensichtlich, dass feine Strukturen umso schlechter wahrgenommen werden können, je kleiner der Sehwinkel ist, unter dem sie betrachtet werden. Schliesslich können mit steigender Komplexität kleine Details gar nicht mehr separat auf- gelöst werden. Das festigt die Behauptung, dass der Ortsfrequenzgang des Auges zu hohen Ortsfrequenzen (die Anzahl von vollständigen Schwingungen pro Grad eines sinusoidalen Helligkeitsmusters, die vom Auge unterschieden werden) hin auf vernachlässigbar kleine Werte abfällt. Versuche haben eben- falls gezeigt, dass die Empfindlichkeit des Auges auf Bereiche konstanter Helligkeit (d.h. Ortsfrequenz ΩX/2 « 0 m"1) klein ist. Damit der Mensch also überhaupt etwas sehen kann, muss die Anregung in einem beträchtlichen Frequenzbereich zwischen diesen beiden Grenzen liegen. In Bereichen mit fei- nen Details, die eine große Auflösung benötigen, ist das Auge toleranter gegenüber Abweichungen der absoluten Helligkeit. Der Amplitudenfrequenzgang des Auges wird somit von räumlichen Effekten verändert: einerseits vom Einfluss verschiedener Rezeptorgruppen, die auf Hintergrunds- und Umgebungshel- ligkeit reagieren, andererseits von der Abhängigkeit der Helligkeitsschwelle vom Sehbereich. Beim Simultankontrast zwischen einem anvisierten Bereich und dem Umgebungsbereich ändert sich die wahrgenommene Helligkeit des anvisierten Bereichs, wenn die Helligkeit rund um diesen Bereich variiert wird. Dabei erscheint der anvisierte Bereich umso dunkler, je heller der Hintergrund wird. Die Verstärkung dieses Effekts hängt außerdem von der vorhandenen Beleuchtung ab: Ist der Kontrast zwischen dem anvisierten Bereich und dem Hintergrund klein, erhöht eine stärkere Gesamtbeleuchtung die wahrgenom- mene Bereichshelligkeit und der Kontrast wird geringer. Ist umgekehrt der Kontrast groß, erscheint der Bereich bei stärkerer Beleuchtung dunkler. Der zweite Effekt tritt bei einer abrupten Helligkeitsänderung auf und ist dafür verantwortlich, dass der Kontrast schärfer erscheint, als er in Wirk- lichkeit ist. Somit verringert ein Bereich mit großer kon- stanter Helligkeit die wahrgenomme Helligkeit eines angrenzenden Bereichs mit kleinerer (aber ebenfalls konstanter) Helligkeit. Das für diese beiden Effekte verantwortliche Phänomen ist als laterale Hemmung bekannt und kann in Bezug auf den Ortsfrequenzgang des Auges als Hochpassfilter modelliert werden, der eine deutlich reduzierte Empfindlichkeit auf Bereiche mit konstanter oder sich leicht ändernder Helligkeit besitzt und die gezielte Bestimmung von scharfen Kanten (zum Beispiel den Umriss eines Objekts) erlaubt.In practice, due to the always present ambient lighting near the display, any deterioration (eg caused by noise) is perceived less strongly in dark areas than in lighter parts of the picture. There is therefore a much more complex relationship between perception directly at the visual brightness distinguishability threshold, in areas near the threshold and in more distant areas than one might suspect at first glance. It is obvious that the smaller the visual angle from which they are viewed, the more difficult it is to perceive fine structures. After all, with increasing complexity, small details can no longer be resolved separately. This solidifies the claim that the spatial frequency response of the eye drops to negligibly small values at high spatial frequencies (the number of complete vibrations per degree of a sinusoidal brightness pattern that are distinguished by the eye). Experiments have also shown that the sensitivity of the eye to areas of constant brightness (ie spatial frequency Ω X / 2 «0 m " 1 ) is low. So that humans can see anything at all, the excitation must be in a considerable frequency range between them In areas with fine details that require a high resolution, the eye is more tolerant of deviations in the absolute brightness, so the amplitude frequency response of the eye is changed by spatial effects: on the one hand, by the influence of different receptor groups that affect background and If there is a simultaneous contrast between a targeted area and the surrounding area, the perceived brightness of the targeted area changes if the brightness is varied around this area. The targeted area appears all the darker, the lighter the H intergrund becomes. The amplification of this effect also depends on the existing lighting: If the contrast between the targeted area and the background is small, stronger overall lighting increases the perceived area brightness and the contrast decreases. Conversely, if the contrast is large, the area appears darker when the lighting is stronger. The second effect occurs with an abrupt change in brightness and is responsible for making the contrast appear sharper than it really is. Thus, an area with large constant brightness the perceived brightness of an adjacent area with lower (but also constant) brightness. The phenomenon responsible for these two effects is known as lateral inhibition and can be modeled in relation to the spatial frequency response of the eye as a high-pass filter, which has a significantly reduced sensitivity to areas with constant or slightly changing brightness and the targeted determination of sharp edges (for Example, the outline of an object).
Zur Erstellung von psychooptischen Mess- und Bewertungsmodellen, die zum Zweck der datenreduzierenden Bildkodierung nutzbar sind, sind tiefgreifende Kenntnisse von der optischen Signalverarbeitung des Auges bis zu den Nervenimpulsen im Ge- hirn notwendig. Für diese Aufgabe sind schon verschiedeneTo create psycho-optical measurement and evaluation models that can be used for the purpose of data-reducing image coding, in-depth knowledge of the optical signal processing of the eye to the nerve impulses in the brain is necessary. There are several for this task
Verfahren vorgeschlagen worden, die mehr oder weniger gut mit der menschlichen Wahrnehmung korrelieren. Das erfolgverspre- chenste unter ihnen ist das Modell der gerade noch wahrmehm- baren Unterschiede ("Just Noticible Differences" , JND) . Al- lerdings gibt es auch hier Unterschiede, je nachdem welche und wie viele der bisher bekannten psychooptischen Eigenschaften des menschlichen Sehens berücksichtigt werden.Methods have been proposed that correlate more or less well with human perception. The most promising among them is the model of just noticeable differences ("Just Noticible Differences", JND). However, there are also differences here, depending on which and how many of the previously known psycho-optical properties of human vision are taken into account.
Zur Festlegung der Schwellwerte für die kleinste wahrnehmbare Luminanz- (ΔYj bzw. Chrominanzänderung {AU^/ AVJ ) des empfangenen Videosignals in Abhängigkeit von den durch (Y, U, V) env charakterisierten Beleuchtungsverhältnissen in der Umgebung des Bildsignalgebers können beispielsweise die psychooptischen Eigenschaften des menschlichen Sehvermögens im Hinblick auf die Amplituden- und/oder Frequenzmodulationsschwelle, die wahrnehmbare Frequenzgruppenbreite ΔfG und die durch die Maskierung von Nutzstrahlung durch Störstrahlung hervorgerufenen Effekte ausgewertet werden. In diesem Zusammenhang ist es wichtig, auf das Phänomen derFor example, the psycho-optical properties can be used to determine the threshold values for the smallest perceptible luminance (ΔYj or chrominance change {AU ^ / AV J ) of the received video signal as a function of the lighting conditions in the surroundings of the image signal generator, which are characterized by (Y, U, V) env of human eyesight with regard to the amplitude and / or frequency modulation threshold, the perceptible frequency group width Δf G and the effects caused by the masking of useful radiation by interference radiation are evaluated. In this context, it is important to focus on the phenomenon of
"örtlichen Maskierung" zu verweisen, das verwandt ist mit dem Mach-Effekt, aber trotzdem davon abweicht. Die Ausnutzung dieses Maskierungsphänomens ist ein erfolgreiches Beispiel für die Einbeziehung von Eigenschaften des HVS in Bildkodieralgorithmen. In einer Reihe von Sehtests wurde bei unterschiedlichen Versuchspersonen festgestellt, dass die Hellig- keitsänderungsschwelle empfindlich auf die Anwesenheit eines in der Nähe auftretenden Helligkeitssprungs reagiert. Anders gesagt ist der Schwellwert einer gerade wahrnehmbaren Helligkeitsänderung (ΔYJN) höher als er wäre, wenn der Helligkeitssprung (ΔY) nicht vorhanden wäre. Deshalb sagt man, der Sprung "maskiert" kleine Helligkeitsunterschiede in seiner Umgebung. Ein weiteres wichtiges Merkmal dieses Maskierungs- effekts liegt darin, dass er eine Funktion des Gradienten der Hellikeitsänderung ist, gegenüber der er gemessen wird. (In einem typischen Testbild ist er deshalb abhängig vom anvisierten Detail.) Dieser Umstand kann dazu benutzt werden, um Maskierungsfunktionen auf der Basis von gewichteten Ableitun- gen der Helligkeitsverteilung innerhalb eines einige Pixel umfassenden Bereichs zu definieren. Diese können dazu verwendet werden, den Quantisierungsprozess von Kodiersystemen durch Prädiktion zu optimieren.To refer to "local masking" that is related to the Mach effect, but still deviates from it. The exploitation of this masking phenomenon is a successful example of the inclusion of properties of the HVS in image coding algorithms. In a series of eye tests, it was found in different test subjects that the brightness change threshold was sensitive to the presence of a nearby jump in brightness. In other words, the threshold value of a perceptible change in brightness (ΔY JN ) is higher than it would be if the brightness jump (ΔY) were not present. That is why the jump is said to "mask" small differences in brightness in its surroundings. Another important feature of this masking effect is that it is a function of the gradient of the change in brightness against which it is measured. (In a typical test image, it is therefore dependent on the envisaged detail.) This fact can be used to define masking functions on the basis of weighted derivatives of the brightness distribution within an area comprising a few pixels. These can be used to optimize the quantization process of coding systems by prediction.
Über die Grenzen der Sichtbarkeit von Luminanz- (ΔYJN) , Chrominanz- (Δ/JNJΔVJN) bzw. Farbsättigungsschwankungen eines stationären Empfangssignals geben die Schwellen für sinusoidale Amplituden- und/oder Frequenzmodulation (AM bzw. FM) für monochromatische bzw. für breitbandige Teststrahlung Auskunft. Unter einer Amplituden- bzw. Helligkeitsmodulationsschwelle versteht man denjenigen Wert des AmplitudenModulationsgrades m, für welchen sich bei sequenzieller Darbietung das amplitudenmodulierte vom un odulierten Empfangssignal sichtbar zu unterscheiden beginnt. Analog versteht man unter einer Fre- quenz- bzw. Farbartmodulationsschwelle denjenigen Wert desOver the limits of the visibility of luminance (ΔY JN ), chrominance (Δ / JN J ΔVJN) or color saturation fluctuations of a stationary received signal are the thresholds for sinusoidal amplitude and / or frequency modulation (AM or FM) for monochromatic or for broadband test radiation information. An amplitude or brightness modulation threshold is understood to mean the value of the amplitude modulation degree m for which the amplitude-modulated received signal begins to differ visibly in the case of sequential presentation. Analogously one understands a quenz- or chromaticity modulation threshold that value of
Frequenzhubs Δf, für welchen sich bei sequenzieller Darbietung das frequenzmodulierte vom unmodulierten Empfangssignal sichtbar zu unterscheiden beginnt. Als Grundlage für Sehtests können dazu modulierte Kosinusgitter für die Luminanz (Y) , für die Chrominanz ( U, V) bzw. für die Farbsättigung eingesetzt werden. Bei der Betrachtung der Testbilder auf einem Monitor kann die individuelle Modulationsübertragungsfunktion (MÜF) in Abhängigkeit vom Abstand zwischen Monitor und Bet- rachter direkt gesehen werden als psychooptische Sichtbarkeitsgrenze der Kosinusgitter. Zur Bestimmung der MÜF für helligkeits- bzw. farbartmodulierte Kosinusgitter werden in einem Sehtest die Punkte, an denen die Kosinusgitter gerade noch zu erkennen sind, von einer Testperson angezeigt und durch Polygonzüge miteinander verbunden. Die mittlere Grenze, an der Testpersonen gerade eben noch die Gitterform der kosi- nusförmigen Modulation erkennen können, kennzeichnet eine MÜF. Diese Messkurven können für alle Farbwerte, die auf einem Monitor darstellbar sind, gefunden werden. Allen Messkur- ven ist eine eindeutig erkennbare Bandpasscharakteristik des menschlichen Gesichtsinns gemeinsam. Für die MÜF -τ.(Ωι2) helligkeitsmodulierter Gitter gilt, dass bei geringer Farbsättigung nur die Mischfarbe "Unbunt" bzw. der jeweilige Farbmittelwert zu sehen ist. Oberhalb von bestimmten Ortsfre- quenzen (ΩX,Ω) muss die Farbsättigung ständig erhöht werden, um die Gitter erkennen zu können. Dieser Effekt hängt zusammen mit der Beugungsgrenze der optischen Abbildung im Auge für hohe Ortsfrequenzen Ωi bzw. Ω2.Frequency hubs Δf for which the frequency-modulated and unmodulated received signal begins to visibly differ in the case of sequential presentation. Modulated cosine gratings for luminance (Y), for chrominance (U, V) and for color saturation can be used as the basis for vision tests. When viewing the test images on a monitor, the individual modulation transfer function (MÜF) can be seen directly as a psycho-optical limit of visibility of the cosine grating depending on the distance between the monitor and the viewer. To determine the MTF for brightness or color modulated cosine gratings, a test person displays the points at which the cosine gratings can just be recognized by a test person and connects them with polygons. The middle limit, at which test persons can just barely recognize the lattice shape of the cosine-shaped modulation, marks an MTF. These measurement curves can be found for all color values that can be displayed on a monitor. All measurement curves have a clearly recognizable bandpass characteristic of the human face. For the MÜF -τ. (Ω ι , Ω 2 ) brightness-modulated grating, only the mixed color "achromatic" or the respective mean color value can be seen with low color saturation. Above certain spatial frequencies (Ω X , Ω), the color saturation must be constantly increased in order to be able to recognize the grating. This effect is related to the diffraction limit of the optical image in the eye for high spatial frequencies Ωi or Ω 2 .
Betrachtet man die MÜF für helligkeitsmodulierte Gitter imLooking at the MTF for brightness-modulated grids in the
Vergleich zu farbartmodulierten Gittern, so erkennt man, dass das globale Minimum der MÜF m (Ω.l r Ω2) für die Luminanz gegenüber der MÜF Δf(Ωι,Ω2) für die Chrominanz zu höheren Ortsfrequenzen (Ωι,Ω2) verschoben ist. Alle farbartmodulierten Git- ter zeigen einen streng monotonen Anstieg der MÜF Δf(Ωι,Ω2) , der unterhalb von Ω1/2=l,5 Linienpaaren/Grad liegt, abhängig von der jeweiligen Farbart. Die Beachtung der unterschiedlichen Modulationsübertragungsfunktionen der verschiedenen farbartmodulierten Gitter kann eine gezielte Datenreduzierung bei unterschiedlichen Farbübergängen ermöglichen.Compared to color-modulated grids, it can be seen that the global minimum of MÜF m (Ω. Lr Ω 2 ) for luminance is shifted to MÜF Δf (Ωι, Ω 2 ) for chrominance to higher spatial frequencies (Ωι, Ω 2 ) , All color-modulated git ter show a strictly monotonous increase in MÜF Δf (Ωι, Ω 2 ), which is below Ω 1/2 = 1.5 line pairs / degree, depending on the respective color type. Paying attention to the different modulation transfer functions of the different color-modulated grids can enable targeted data reduction for different color transitions.
Zu Patentanspruch 9 :Regarding claim 9:
Bei einem speziellen Ausführungsbeispiel der vorliegenden Er- findung kann es sich um die Durchführung des Weiß-Abgleichs von Videosignalen s (n) handeln, bei dem Luminanz (Y), Chrominanz ( U, V) und/oder Farbsättigung der von einer Videokamera aufgenommenen Bewegtbilder in Abhängigkeit von den Beleuchtungsverhältnissen in der Umgebung der Videokamera reguliert werden.A special exemplary embodiment of the present invention can be used to carry out the white balance of video signals s (n), in which luminance (Y), chrominance (U, V) and / or color saturation of the moving images recorded by a video camera can be regulated depending on the lighting conditions in the vicinity of the video camera.
Bei einer Bildübertragung nach den üblichen Standards treten unter bestimmten Voraussetzungen Verfälschungen in der wiedergegebenen Luminanz (Y) auf. Bilder, die stark gesättigte Farben und harte Übergänge von den farbigen Bildbereichen zu unbunten Bildbereichen enthalten, werden besonders verfälscht wiedergegeben. Auch bei einer digitalen Bildübertragung nach MPEG2 , bei der Luminanz ( Y) und Chrominanz ( U, V) getrennt quantisiert werden, treten diese Fehler auf, da die Trennung von Helligkeits-, Farbart- und Farbsättigungsinformation nicht vollkommen ist.With image transmission according to the usual standards, falsifications in the reproduced luminance (Y) occur under certain conditions. Images that contain highly saturated colors and hard transitions from the colored image areas to achromatic image areas are reproduced in a particularly distorted manner. These errors also occur in digital image transmission according to MPEG2, in which luminance (Y) and chrominance (U, V) are quantized separately, since the separation of brightness, color type and color saturation information is not perfect.
Mit Hilfe eines Kompensationsverfahrens zur Regulierung der Luminanz ist es möglich, die durch die Kodierung der Chromi- nanzSignalkomponenten hervorgerufenen Luminanzdefekte zu korrigieren und damit die Bildqualität zu verbessern.With the aid of a compensation method for regulating the luminance, it is possible to correct the luminance defects caused by the coding of the chrominance signal components and thus to improve the image quality.
Die Farbempfindlichkei t der Augen hängt von der Wellenlänge λ bzw. der Frequenz f = cn/λ der sich mit Lichtgeschwindigkeit cn = c/n in einem Medium mit dem Brechungsindex n ausbreitenden Strahlung ab. Dabei bezeichnet c die Ausbreitungsgeschwindigkeit des Lichts im Vakuum; ihr Wert beträgt etwaThe color sensitivity of the eyes depends on the wavelength λ or the frequency f = c n / λ which changes with the speed of light c n = c / n in a medium with the refractive index n propagating radiation. C denotes the speed of light propagation in a vacuum; their value is approximately
c » 3,0-108 m/s.c »3.0-10 8 m / s.
Das für das menschliche Auge sichtbare Spektrum des Lichts befindet sich in einem Wellenlängenbereich zwischen λmιn = 380 nm und λmax = 780 nm. Licht mit großer Wellenlänge (nahe λmax) erscheint für das menschliche Auge als Rot, solches mit kurzer Wellenlänge (nahe λmin) als Violett.The spectrum of light visible to the human eye is in a wavelength range between λ m ι n = 380 nm and λ max = 780 nm. Light with a large wavelength (near λ m ax) appears to the human eye as red, with a short one Wavelength (near λ m i n ) as violet.
Weißes Licht enthält alle im sichtbaren Spektralbereich vorkommenden Lichtwellen. Das läßt sich nachprüfen, wenn man beispielsweise weißes Sonnenlicht mit Hilfe eines optischen Systems (Prisma) in seine Spektralanteile auflöst. Das als Weiß wahrgenommene Sonnenlicht besteht aus unzähligen einzelnen Farbkomponenten, die erst im Auge eines Betrachters zu einem Gesamt-Farbeindruck zusammengesetzt werden. Die unter- schiedlichen sichtbaren Spektralanteile des Lichts werden vom menschlichen Auge jedoch nicht mit gleicher Empfindlichkeit wahrgenommen. Die Empfindlichkeitskurve des Auges weist ein globales Maximum bei grünem Licht und eine streng monoton fallende Empfindlichkeit in Richtung violetter und roter Strahlung auf. Sind keine elektromagnetischen Strahlen vorhanden, das heißt wenn alle Wellenlängen des sichtbaren Spektrums von einem Körper absorbiert werden, empfindet das menschliche Auge die Farbe Schwarz.White light contains all light waves occurring in the visible spectral range. This can be checked if, for example, white sunlight is resolved into its spectral components using an optical system (prism). The sunlight perceived as white consists of innumerable individual color components that are only put together to form an overall color impression in the eye of the beholder. However, the different visible spectral components of light are not perceived by the human eye with the same sensitivity. The sensitivity curve of the eye has a global maximum with green light and a strictly monotonically falling sensitivity towards violet and red radiation. If there are no electromagnetic rays, that is, if all wavelengths of the visible spectrum are absorbed by a body, the human eye perceives the color black.
Der vom Auge wahrgenommene Farbeindruck wird jedoch nicht allein von der Wellenlänge einer Strahlung bestimmt, sondern auch von den Licht- und Beleuchtungsverhäl tnissen in der Umgebung. So leuchtet zum Beispiel die rote Farbe eines Gegens- tands bei Sonnenstrahlung anders als in einem abgedunkeltenThe color impression perceived by the eye is not only determined by the wavelength of radiation, but also by the light and lighting conditions in the area. For example, the red color of an opposing tands different in the sun than in a darkened one
Raum.Room.
Die Empfindlichkeit des menschlichen Gesichtssinns wird durch die Anpassung der Augen an die bestehenden Lichtverhältnisse in der Umgebung beeinflusst. Bei der sogenannten "Helladaption" muss von einer Lichtquelle ausgesendetes blaues oder rotes Licht wesentlich mehr Energie E = h - f = h - cn/λ abstrahlen, um als genauso hell empfunden zu werden wie gelbes oder grünes Licht. Die Konstante h ist dabei das Plancksche Wirkungsquantum; es hat den Wert h « 6,62-10"34 Ws2. Die relative Hellemp indlichkeit - meist mit V(λ) bezeichnet - hat bei Helladaption ein globales Maximum bei λ = 555 nm, bei Dunkel- adaption liegt ein globales Maximum bei λ = 507 nm vor. Bei der Aufnahme eines Objekts mit einer Farbkamera spielt das Umgebungslicht daher eine wichtige Rolle. Der von einem Gegenstand hinterlassene Farbeindruck wird auch von der Umgebungshelligkeit beeinflusst, das heißt die Farbe eines Gegenstands läßt sich objektiv nur bei konstanter Intensität des Umgebungslichts bestimmen.The sensitivity of the human face is influenced by the adaptation of the eyes to the existing lighting conditions in the area. In the so-called "bright adaptation", blue or red light emitted by a light source must emit significantly more energy E = h - f = h - c n / λ in order to be perceived as bright as yellow or green light. The constant h is Planck's constant; it has the value h «6.62-10 " 34 Ws 2. The relative light sensitivity - usually denoted by V (λ) - has a global maximum at λ = 555 nm in the case of light adaptation, and a global maximum in the case of dark adaptation The ambient light therefore plays an important role in the recording of an object with a color camera. The color impression left by an object is also influenced by the ambient brightness, ie the color of an object can only be objectively achieved with constant intensity of the ambient light determine.
Zum Vergleichen von Farben wäre weißes Licht, das man jedoch in der Natur kaum vorfindet, ideal. Um dennoch die Farben verschiedener Lichtquellen miteinander vergleichen zu können, verwendet man als "Bezugslichtquelle" die Strahlung eines sogenannten "Planckschen Strahlers". Als Planckschen Strahler bezeichnet man einen absolut schwarzen Körper mit einem Absorptionsgrad von 100%, der, nachdem man ihn erhitzt, Photonen ausstrahl . Das Spektraldiagramm dieses Lichts hängt hierbei ausschließlich von der Temperatur ab, bis zu der der schwarze Körper erhitzt wird. Aus diesem Grund spricht man von der "Farbtemperatur" des Lichts. Die Farbtemperatur des Lichts ist identisch mit der Wärmetemperatur des schwarzen Körpers, und sie wird als absolute Temperatur Tx in Kelvin (K) angegeben. Bereits bei einer relativ niedrigen Temperatur von Tι « 1.000 K erscheint das ausgestrahlte Licht rötlich. Mit zunehmender Temperatur wechselt die Farbe des Lichts von Rot (Ti » 1.000 K) über Orange, Gelb ( Ti » 3.000 K) und Weiß ( Tλ « 3.200 K) nach Blau ( Tx « 5.000 K) . Das Maximum der spektralen Energieverteilung verschiebt sich also mit zunehmender Temperatur zu kürzeren Wellenlängen hin.To compare colors, white light, which you will hardly find in nature, would be ideal. In order to be able to compare the colors of different light sources with one another, the radiation of a so-called "Planckian radiator" is used as the "reference light source". A Planck radiator is an absolutely black body with a degree of absorption of 100%, which emits photons after being heated. The spectral diagram of this light depends exclusively on the temperature up to which the black body is heated. For this reason we speak of the "color temperature" of light. The color temperature of the light is identical to the heat temperature of the black body, and it is called the absolute temperature T x in Kelvin (K) specified. Even at a relatively low temperature of Tι «1,000 K, the emitted light appears reddish. With increasing temperature, the color of the light changes from red (Ti »1,000 K) to orange, yellow (Ti» 3,000 K) and white (T λ «3,200 K) to blue (T x « 5,000 K). The maximum of the spectral energy distribution shifts towards shorter wavelengths with increasing temperature.
Die Farbtemperaturbestimmung einer Lichtquelle erfolgt durch einen Vergleich mit dem Licht des erhitzten schwarzen Körpers. Erhitzt man zum Beispiel den schwarzen Körper auf eine Temperatur von Ti « 3.200 K und entspricht das Licht dieses Körpers dem Licht einer strahlenden Glühlampe, so hat das vom Glühfaden der Lampe ausgestrahlte Licht ebenfalls eine Farb- temperatur von 2ι « 3.200 K. Der Vergleich verschiedenerThe color temperature of a light source is determined by comparison with the light of the heated black body. If, for example, the black body is heated to a temperature of Ti «3,200 K and the light from this body corresponds to the light of a radiant incandescent lamp, the light emitted by the filament of the lamp also has a color temperature of 2ι« 3,200 K. The comparison of different
Lichtquellen mit Hilfe der Farbtemperatur ist allerdings nur bei thermischen Lichtquellen (Kerzen, Glühlampen, Tageslicht, Licht von Strahlung außendenden Himmelskörpern etc.) für Photonenstrahlung im sichtbaren Frequenzbereich möglich. Das Licht von Lumineszenzstrahlern (Gasentladungslampen, Leuchtstoffröhren, Leuchtdioden etc.) zeigt keine glatte Spektralverteilung. Licht dieser Art kann daher nicht durch die Farbtemperatur ausgedrückt werden.However, light sources with the help of the color temperature are only possible with thermal light sources (candles, incandescent lamps, daylight, light from radiation-emitting celestial bodies, etc.) for photon radiation in the visible frequency range. The light from luminescent lamps (gas discharge lamps, fluorescent tubes, light-emitting diodes etc.) does not show a smooth spectral distribution. Light of this kind cannot therefore be expressed by the color temperature.
Betrachtet man einen Gegenstand abwechselnd mit unterschiedlichen Lichtquellen, deren Farborte im IBK-Farbdreieck zwar ziemlich nahe beieinander liegen, deren spektrale Verteilung aber stark differiert (zum Beispiel natürliches Tageslicht bei unbewölktem Himmel und Licht einer Tageslicht-Leucht- stofflampe) , kann es passieren, dass der Gegenstand in einer ganz anderen Farbe erscheint. Daraus lässt sich folgern, dass das menschliche Auge unerwartet empfindlich gegenüber der spektralen Verteilung von Lichtquellen reagiert. Andererseits erkennt das Auge kaum einen Farbunterschied, wenn sich die Farborte des Umgebungslichts stark unterscheiden, zum Beispiel bei der Betrachtung eines Gegenstands mit Tageslicht oder am Abend bei Glühlampenbeleuchtung. Die Gründe hierfür liegen in der Fähigkeit des menschlichen Auges, sich den un- terschiedlichen Licht- und Beleuchtungsverhältnissen in der Umgebung anpassen zu können (Farbgedächtnis) . Dazu ein Beispiel : Eine Freilichtaufnahme eines weißen Gegenstands bei einer Farbtemperatur des Tageslichts von Tx = 6.500 K soll so erfolgen, dass der aufgenommene Gegenstand auch auf einem Mo- nitor weiß erscheint. Hierzu wird die Kamera so eingestellt, dass die Farbkomponenten Rot (R) , Grün (G) und Blau (B) Signale mit gleicher Amplitude liefern ( UR = C7G = ÜB) , das heißt die eingestellte Farbtemperatur der Kamera T2 wird auf T2 = 6.500 K eingestellt. Bei der Aufnahme des gleichen Gegens- tands - jetzt aber im Studio mit einer weißes Licht außenden- den Fotolampe der Farbtemperatur Tx = 3.200 K und unveränderter Kameraeinstellung auf die Farbtemperatur T2 = 6.500 K durchgeführt - erscheint der aufgenommene Gegenstand auf dem Bildschirm gelblich. Der aufgenommene weiße Gegenstand hat jetzt eine Farbtemperatur von Tx « 3.200 K, was eine Verschiebung des Farbeindrucks zum roten Spektrum hin bedeutet. Der Kameramann hingegen sieht den Gegenstand immer weiß leuchten, da das menschliche Gehirn über ein Farbgedächtnis verfügt . Der auf dem Monitor abgebildete Gegenstand nimmt erst wieder eine weiße Farbe an, wenn die Kamera neu auf das Umgebungslicht eingestellt wird.If you look at an object alternately with different light sources, whose color locations in the IBK color triangle are fairly close to one another, but whose spectral distribution differs greatly (for example, natural daylight with a cloudy sky and light from a daylight fluorescent lamp), it can happen that the object appears in a completely different color. It can be concluded that the human eye is unexpectedly sensitive to the spectral distribution of light sources. On the other hand, the eye hardly recognizes a color difference when the Differentiate color locations of the ambient light, for example when viewing an object with daylight or in the evening with incandescent lighting. The reasons for this lie in the ability of the human eye to adapt to the different lighting and lighting conditions in the environment (color memory). Here is an example: An open-air photograph of a white object with a color temperature of daylight of T x = 6,500 K should be done in such a way that the recorded object also appears white on a monitor. For this purpose, the camera is set so that the color components red (R), green (G) and blue (B) deliver signals with the same amplitude (U R = C7 G = Ü B ), that is, the set color temperature of the camera becomes T 2 set to T 2 = 6,500 K. When the same object was recorded - but now carried out in the studio with a white light-emitting photo lamp with the color temperature T x = 3,200 K and the camera setting unchanged at the color temperature T 2 = 6,500 K - the recorded object appears yellow on the screen. The recorded white object now has a color temperature of T x «3,200 K, which means a shift in the color impression towards the red spectrum. The cameraman, on the other hand, always sees the object glowing white because the human brain has a color memory. The object shown on the monitor only takes on a white color again when the camera is readjusted to the ambient light.
Um sicherzugehen, dass ein weißer Gegenstand - aufgenommen bei unterschiedlichen Farbtemperaturen des Umgebungslichts - auf dem Monitor immer weiß erscheint, muss durch die Kamera eine Kompensation der Farbtemperatur ermöglicht werden. Man bezeichnet eine solche Kompensation als Weiß-Abgleich oder Weiß-Balance-Einstellung. Bei der Beleuchtung eines weißen Körpers mit einer Lichtquelle der Farbtemperatur Tx = 6.740 K müssen die drei Ausgangssignale C7R, uG und UB der Kamera gleich groß sein. In der Praxis kann der Weiß-Abgleich einerIn order to ensure that a white object - recorded at different color temperatures of the ambient light - always appears white on the monitor, the camera must be able to compensate for the color temperature. Such compensation is referred to as white balance or white balance adjustment. When illuminating a white body with a light source with a color temperature of T x = 6,740 K, the three output signals C7 R , u G and U B of the camera must be used be the same size. In practice, the white balance can be one
Kamera durch drei verschiedene Methoden durchgeführt werden:Camera can be done by three different methods:
• durch ein optisch-mechanisches Verfahren (Kompensations- filter) ,• by an optical-mechanical process (compensation filter),
• durch ein elektronisches Verfahren (Regelschaltung) ,By an electronic process (control circuit),
• durch eine Kombination aus den beiden genannten Verfahren.• by a combination of the two methods mentioned.
In der Regel arbeiten moderne Videokameras am besten bei ei- ner Färbtemperatur von Tx = 3.200 K. Bei dieser Beleuchtung ist dann kein Weiß-Abgleich erforderlich. Eine Kompensation der Farbtemperatur mit Farbfiltern wird in der Praxis mit Hilfe eines Umschalters für Außen- oder Innenaufnahmen durchgeführt ("In-Door" -/"Out-Door" -Umschalter) . Hierzu wird ein Farbfilter auf mechanischem Weg vor den Bildaufnehmer geschaltet.As a rule, modern video cameras work best at a color temperature of T x = 3,200 K. With this lighting, no white balance is required. Compensation of the color temperature with color filters is carried out in practice with the help of a switch for outdoor or indoor photography ("in-door" / "out-door" switch). For this purpose, a color filter is mechanically connected in front of the image sensor.
Im Zusammenhang mit Farbtemperatur-Kompensationsfiltern wird die Farbtemperatur Tλ einer Lichtquelle bisweilen auch durch die Rechengröße Mx ("Micro-Reciprocal Degrees" , MIRED) mit der Einheit μrd zum Ausdruck gebracht, die sich als Kehrwert der Farbtemperatur, multipliziert mit 106, ergibt:In connection with color temperature compensation filters, the color temperature T λ of a light source is sometimes also expressed by the calculation variable M x ("Micro Reciprocal Degrees", MIRED) with the unit μrd, which is the reciprocal of the color temperature multiplied by 10 6 , results:
M2[μrd] = •10M 2 [μrd] = • 10
T,[K]T [K]
Zur Anpassung der Farbtemperatur mit Hilfe von Farbfiltern arbeitet man mit der folgenden Korrekturformel :The following correction formula is used to adjust the color temperature using color filters:
10" 10"10 "10"
ΔM [μrά] = = M2 - M.ΔM [μrά] = = M 2 - M.
T2[K] Tχ[K]T 2 [K] T χ [K]
mit Mi: MIRED-Wert für Tx (in μrd) ,With Mi: MIRED value for T x (in μrd),
M2 : MIRED-Wert für T (in μrd),M 2 : MIRED value for T (in μrd),
AM : = M2-Mx : Korrekturwert (in μrd),AM: = M 2 -M x : correction value (in μrd),
Tx : gegebene Farbtemperatur der Lichtquelle (in K) ,T x : given color temperature of the light source (in K),
T2 : eingestellte Farbtemperatur der KameraT 2 : set color temperature of the camera
(in K) und(in K) and
ΔT := T2- T : Temperaturdifferenz (in K) .ΔT: = T 2 - T: temperature difference (in K).
Das Ergebnis einer solchen Berechnung kann positiv oder negativ sein. Ist das Ergebnis AM positiv (für T > T2) , dann ist ein Gelbfilter (d.h. ein wärmerer Farbton) zu wählen; ein negatives Ergebnis AM (für Tx < T2) erfordert ein Blaufilter (d.h. einen kälteren Farbton) . Beträgt beispielsweise die Farbtemperatur der Lichtquelle T = 4.706 K und die eingestellte Farbtemperatur einer Kamera T2 = 3.200 K (Tageslicht an einem unbewölkten Tag kurz vor Sonnenuntergang) , so ergibt die Rechnung:The result of such a calculation can be positive or negative. If the result AM is positive (for T> T 2 ), then a yellow filter (ie a warmer shade) must be selected; a negative result AM (for T x <T 2 ) requires a blue filter (ie a colder hue). For example, if the color temperature of the light source is T = 4,706 K and the set color temperature of a camera is T 2 = 3,200 K (daylight on a clear day just before sunset), the calculation is:
106 10°10 6 10 °
ΔM = - H-100/-rdΔM = - H-100 / -rd
3.200 K 4.706 K3,200 K 4,706 K
In diesem Fall sollte das Filter also einen Korrekturfaktor von +100 besitzen, das heißt die reziproke Farbtemperatur der Lichtquelle l/ Tx , multipliziert mit 10e, muss um AM = 100 μrd gesenkt werden. Das bedeutet, dass die eingestellte Farbtemperatur der Kamera T2 = 3.200 K um AT = 1.506 K auf die Farbtemperatur der Lichtquelle T = 4.706 K erhöht werden muss. Ein solches Filter wird auch als WlO-Filter bezeichnet. Hierbei gibt der Buchstabe in der Filterbezeichnung an, ob die Farbtemperatur der Kamera T2 reduziert (C) oder erhöht (W) werden soll. Die Zahl hinter dem Buchstaben gibt den Umwandlungswert in Zehntel-μrd an. Die Farben des von einer Videokamera erzeugten Videobildes sollen stets den Original-Farbeindruck der Auf ahmeszene wiedergeben, unabhängig von der Farbtemperatur der Szenenbeleuchtung. Um diese Forderung erfüllen zu können, muss die Kamera so eingestellt werden, dass ein weißer Gegenstand immer weiß abgebildet wird. Diese Adaption an die Farbtemperatur der Szenenbeleuchtung wird in der Videotechnik aus als Weiß-Abgleich oder Weiß-Balance-Einstellung bezeichnet. Grundsätzlich sind Videokameras so eingestellt, dass ein bei einer Farbtemperatur von T » 3.200 K (Standard-Lichtquelle) aufgenommenes weißes Objekt auch als weißes Objekt abgebildet wird. Bei jeder Abweichung der Farbtemperatur von diesem Normwert muss der Weiß-Abgleich der Kamera so verändert werden, bis das weiß aufgenommene Objekt wieder weiß abgebildet wird. In der Regel sind bei herkömmlichen Videokameras drei Möglichkeiten einer Weiß-Balance-Einstellung zu finden:In this case, the filter should have a correction factor of +100, i.e. the reciprocal color temperature of the light source l / T x , multiplied by 10 e , must be reduced by AM = 100 μrd. This means that the set color temperature of the camera T 2 = 3,200 K must be increased by AT = 1,506 K to the color temperature of the light source T = 4,706 K. Such a filter is also referred to as a WlO filter. The letter in the filter designation indicates whether the color temperature of the camera T 2 should be reduced (C) or increased (W). The number after the letter indicates the conversion value in tenths of a μrd. The colors of the video image generated by a video camera should always reflect the original color impression of the recording scene, regardless of the color temperature of the scene lighting. To meet this requirement, the camera must be set so that a white object is always shown in white. This adaptation to the color temperature of the scene lighting is referred to in video technology as a white balance or white balance setting. Basically, video cameras are set so that a white object recorded at a color temperature of T »3,200 K (standard light source) is also imaged as a white object. Whenever the color temperature deviates from this standard value, the white balance of the camera must be changed until the object recorded in white is shown in white again. There are usually three options for white balance adjustment in conventional video cameras:
• die manuelle Einstellung durch Justierung von Potentiometern (bei älteren Modellen) , • die automatische Einstellung für eine vorgegebene Szenenbeleuchtung und• manual setting by adjusting potentiometers (in older models), • automatic setting for a given scene lighting and
• die automatische Nachführung der Weiß-Balance über einen großen Farbtemperaturbereich.• the automatic adjustment of the white balance over a wide color temperature range.
Grundsätzlich wirkt die Weiß-Balance-Einstellung auf die Verstärkung des Lichts in der Rot- und Blau-Signal-Verarbeitung. Dass dies so sein muss, wird klar, wenn man bedenkt, dass bei einer Farbtemperaturänderung nach höheren Werten (also bei größerer Farbtemperatur Tx einer Lichtquelle) der Blau-An- teil, bei einer Farbtemperaturänderung nach niedrigeren Werten (also bei kleinerer Farbtemperatur Tx einer Lichtquelle) der Rot-Anteil des durch das Objektiv einfallenden Lichts ansteigt . Die meisten heute im Handel erhältlichen Videokameras besitzen die Möglichkeit einer automatischen Weiß-Balance-Einstellung. Hierbei genügt es, einen weißen Gegenstand aufzunehmen und kurz eine Einstelltaste ("Auto-White"- oder "Auto-White- Adjust" -Taste) zu drücken. Durch die Betätigung dieser Taste wird ein Regelvorgang ausgelöst, der die Verstärkung im Rot- und Blau-Signalweg mit Hilfe eines Potentiometers so lange verändert, bis die Rot- und Blau-SignalSpannungen UR-γ und UB.γ der Farbdifferenzsignale R-Y und B-Y gleich groß sind. Der Nachteil dieses Verfahrens zur automatischen Weiß-Balance-Regelung ist, dass bei einem Wechsel der Szenenbeleuchtung immer ein neuer Abgleich mit einem weißen Gegenstand erfolgen muss .Basically, the white balance setting affects the amplification of light in the red and blue signal processing. It becomes clear that this has to be the case if one considers that with a change in color temperature according to higher values (ie with higher color temperature T x of a light source) the blue component, with a change in color temperature after lower values (ie with lower color temperature T x) a light source) the red component of the light coming in through the lens increases. Most of the video cameras available today have the option of automatic white balance adjustment. It is sufficient to pick up a white object and briefly press an "Auto White" or "Auto White Adjust" button. Pressing this button triggers a control process that changes the gain in the red and blue signal path with the aid of a potentiometer until the red and blue signal voltages U R -γ and U B .γ of the color difference signals RY and BY are the same size. The disadvantage of this method for automatic white balance control is that when the scene lighting is changed, a new adjustment with a white object must always be made.
Einige neuere Kameramodelle arbeiten mit einer Weiß-Balance- Einstellung, die sich ständig an die neuen tageszeitlichen, wetterabhängigen bzw. durch künstliche Lichtquellen veränderten Umgebungslicht-Bedingungen anpasst. In der Terminologie der Bildverarbeitungstechnik bezeichnet man diese Art der Weiß-Balance-Einstellung mit "Auto-White-Tracking" (AWT) . Bei der AWT-Regelung wird die spektrale Verteilung der Szenenbeleuchtung ständig durch einen eigenen Sensor, den AWT-Sensor, gemessen. Räumlich befindet sich der AWT-Sensor in der Nähe des Objektivs. Der AWT-Sensor selbst besteht aus einzelnen Fotodioden, denen das einfallende Licht über je ein Rot-,Some newer camera models work with a white balance setting that constantly adapts to the new daytime, weather-dependent or changing ambient light conditions due to artificial light sources. In the terminology of image processing technology, this type of white balance setting is referred to as "auto white tracking" (AWT). With the AWT control, the spectral distribution of the scene lighting is constantly measured by its own sensor, the AWT sensor. The AWT sensor is located close to the lens. The AWT sensor itself consists of individual photodiodes, each of which receives the incident light via a red,
Grün- und Blaufilter zugeführt wird. Bei einer geringen Szenenbeleuchtung ist eine einwandfreie Nachregelung nicht gewährleistet. In diesem Fall erkennt ein Detektor die Unterbelichtung und unterbricht über einen elektronischen Schalter den AWT-Regelkreis . Die Kamera arbeitet dann automatisch bei einem fest vorgegebenen Weiß-Abgleich für eine Farbtemperatur von T2 = 3.200 K. Zu Patentanspruch 10:Green and blue filters are fed. If the scene lighting is low, correct readjustment cannot be guaranteed. In this case, a detector detects the underexposure and interrupts the AWT control circuit via an electronic switch. The camera then works automatically with a fixed white balance for a color temperature of T 2 = 3,200 K. Regarding claim 10:
Das sendeseitige Umschalten auf den Datensignal-Abtastwert Sn+k kann sofort nach dem Verstreichen einer vorgegebenen Verzögerungszeit Δtv und/oder nach dem Über- bzw. Unterschreiten mindestens eines geeignet festgelegten Schwellwerts σref erfolgen. Durch dieses "harte" Umschalten kann ein schnelles Reagieren des Signalempfängers auf veränderte Signalwerte gewährleistet werden. Ist die Kapazität C des Übertragungskanals groß genug und damit die Übertragungszeit Δtü klein ge- nug, können relevante Änderungen As (n+m, m) des Signals s (n) den Signalempfänger nahezu in Echtzeit erreichen.The transmission-side switchover to the data signal sample value S n + k can take place immediately after a predetermined delay time Δt v has elapsed and / or after at least one suitably defined threshold value σ re f has been exceeded or fallen short of. This "hard" switchover ensures that the signal receiver reacts quickly to changed signal values. If the capacity C of the transmission channel is large enough and the transmission time Δt ü is short enough, relevant changes As (n + m, m) of the signal s (n) can reach the signal receiver almost in real time.
Zu Patentanspruch 11 :Regarding claim 11:
Das sendeseitige Umschalten auf den Datensignal-Abtastwert sn+k kann alternativ auch allmählich nach dem Verstreichen einer vorgegebenen Verzögerungszeit Δtv und/oder nach dem Überbzw. Unterschreiten mindestens eines geeignet festgelegten Schwellwerts σref erfolgen. Zu diesem Zweck kann beispielsweise ein Interpolationsverfahren eingesetzt werden, das ei- nen sanften, gleitenden Übergang auf den neuen Signalwert sn+k über mehrere Abtastperioden bewerkstelligt. Durch dieses "sanfte" Umschalten kann dafür gesorgt werden, dass das menschliche WahrnehmungsSystem nicht durch ein plötzliches starkes Ansteigen der empfangenen Signalintensität, zum Bei- spiel durch Lärm infolge eines dröhnened lauten Geräuschs o- der durch Blendung infolge eines gleißend hellen Lichts, ü- berfordert bzw. geschädigt wird. So kann es beispielsweise bei der Darbietung plötzlich auftretender lauter akustischer Signale über Kopfhörer leicht zu einer dauerhaften Schädigung des Gehörs kommen. Durch gleitende Übergänge der empfangenen Signalintensität kann es dem menschlichen Wahrnehmungssystem jedoch ermöglicht werden, sich langsam an die veränderten Signalwerte zu gewöhnen, so dass die Gefahr einer Schädigung der menschlichen Sinneszellen durch plötzliches Ansteigen der empfangenen Signalintensität vermindert werden kann.The transmission-side switchover to the data signal sample value s n + k can alternatively also gradually after the elapse of a predetermined delay time Δt v and / or after the over or Falling below at least one suitably defined threshold value σ ref . For this purpose, an interpolation method can be used, for example, which brings about a smooth, smooth transition to the new signal value s n + k over several sampling periods. This "gentle" switchover can ensure that the human perception system is not overwhelmed by a sudden sharp increase in the received signal intensity, for example by noise due to a booming loud noise or by glare due to a bright light or is damaged. For example, when loud loud acoustic signals suddenly appear via headphones, permanent hearing damage can easily occur. However, smooth transitions in the received signal intensity can enable the human perception system to slowly get used to the changed signal values, so that there is a risk of damage of human sensory cells can be reduced by a sudden increase in the received signal intensity.
Zu Patentanspruch 12 : Sofern die Dauer Δτ der Änderung des Datensignals (DS) eine vorgegebene Verzögerungszeitdauer Δtv unterschreitet, das heißt sofernRegarding claim 12: if the duration Δτ of the change in the data signal (DS) falls below a predetermined delay time duration Δt v , that is, provided
Δτ < Δtv bzw. K < k bei Δtv ≠ 0 bzw. k ≠ 0 und d = 0 für K := Aτ/At] und k : = [Atv/At] (mit k ≥ 1)Δτ <Δt v or K <k at Δt v ≠ 0 or k ≠ 0 and d = 0 for K: = Aτ / At] and k: = [At v / At] (with k ≥ 1)
gilt, erfolgt erfindungsgemäß keine Regelung der Werte des Datensignals (DS) .applies, according to the invention there is no regulation of the values of the data signal (DS).
Zu Patentanspruch 13 :Regarding claim 13:
Sofern der Betrag der Amplitude, Frequenz bzw. Phase si des Datensignals (DS) zu mindestens einem BeobachtungsZeitpunkt i einen vorgegebenen Amplituden-, Frequenz- bzw. Phasenschwell- wert unterschreitet, das heißt sofernIf the magnitude of the amplitude, frequency or phase si of the data signal (DS) falls below a predetermined amplitude, frequency or phase threshold value at at least one observation time i, that is, provided
|sι| < dl mit d : = 2-Sref/V-? = Sref ^2 bei Δtv = 0sι | | <dl with d: = 2-S re f / V-? = S ref ^ 2 at Δt v = 0
gilt, erfolgt erfindungsgemäß ebenfalls keine Regelung der Werte des Datensignals (DS) .applies, according to the invention there is likewise no regulation of the values of the data signal (DS).
Zu den Patentansprüchen 12 und 13 :Regarding claims 12 and 13:
Lässt man sowohl eine Verzögerungszeitdauer Δtv (Δtv ≠ 0) als auch einen Amplituden-, Frequenz- bzw. Phasenschwellwert /2 (d ≠ 0) als Schwellwerte zu, erfolgt in den FällenIf both a delay time period Δt v (Δt v ≠ 0) and an amplitude, frequency or phase threshold / 2 (d ≠ 0) are allowed as threshold values, this is done in the cases
a) Δτ < Δtv bzw. K < k für Δtv ≠ 0 bzw. k ≠ 0 und |sι| < d/2 für d ≠ 0, b) Δτ < Δtv bzw . < k für Δtv ≠ 0 bzw . k ≠ 0 und | -Si | > d/2 für d ≠ 0 sowiea) Δτ <Δtv or K <k for Δt v ≠ 0 or k ≠ 0 and | sι | <d / 2 for d ≠ 0, b) Δτ <Δt v or. <k for Δt v ≠ 0 resp. k ≠ 0 and | -Si | > d / 2 for d ≠ 0 as well
c) Δτ > Δtv bzw. K > k für Δtv ≠ 0 bzw. k ≠ 0
Figure imgf000053_0001
c) Δτ> Δt v or K> k for Δt v ≠ 0 or k ≠ 0
Figure imgf000053_0001
erfindungsgemäß ebenfalls keine Regelung der Werte des Datensignals (DS) . Eine Regelung dieser Werte findet erfindungsgemäß nur dann statt, wenn die Bedingungenaccording to the invention also no regulation of the values of the data signal (DS). According to the invention, these values are only regulated if the conditions
Δτ > Δtv bzw. K > k für Δtv ≠ 0 bzw. k ≠ 0 und | ≤i | > d/2 für d ≠ 0Δτ> Δt v or K> k for Δt v ≠ 0 or k ≠ 0 and | ≤i | > d / 2 for d ≠ 0
eingehalten werden.be respected.
Zu Patentanspruch 14 :Regarding claim 14:
Bei der durch Anwendung dieses Verfahrens geregelten Signal - komponente des Datensignals (DS) kann es sich beispielsweise um ein Chrominanzsignal ( U, V) handeln. Zur Vereinfachung der Schreibweise war in den obigen Formeln jedoch nur noch von einem Datensignal (DS) die Rede, wobei nicht mehr zwischen dem Datensignal (DS) und Signalkomponenten dieses Datensignals (DS) unterschieden wurde.The signal component of the data signal (DS) regulated by using this method can be, for example, a chrominance signal (U, V). To simplify the spelling, however, only one data signal (DS) was mentioned in the above formulas, it no longer being distinguished between the data signal (DS) and signal components of this data signal (DS).
Zu Patentanspruch 15:Regarding claim 15:
Bei der durch Anwendung dieses Verfahrens geregelten Signal- komponente des Datensignals (DS) kann es sich beispielsweise um ein Luminanzsignal (Y) handeln. Zur Vereinfachung der Schreibweise war in den obigen Formeln jedoch nur noch von einem Datensignal (DS) die Rede, wobei nicht mehr zwischen dem Datensignal (DS) und Signalkomponenten dieses Datensignals (DS) unterschieden wurde. Figurenbeschreibung mit BezugszeichenlisteThe signal component of the data signal (DS) regulated by the use of this method can be, for example, a luminance signal (Y). To simplify the spelling, however, only one data signal (DS) was mentioned in the above formulas, it no longer being distinguished between the data signal (DS) and signal components of this data signal (DS). Description of figures with list of reference symbols
Im Folgenden wird die Erfindung anhand bevorzugter Ausführungsbeispiele, wie sie in den Figuren 1 bis 8 geschildert sind, näher beschrieben.The invention is described in more detail below on the basis of preferred exemplary embodiments as described in FIGS. 1 to 8.
Im Detail zeigenShow in detail
Figur 1 ein Blockschaltbild zur Veranschaulichung der Sig- nalübertragung von einem Signalsender zu einem Signalempfänger im Falle von Bewegtbildsequenzen als Ubertragungssignal ,FIG. 1 shows a block diagram to illustrate the signal transmission from a signal transmitter to a signal receiver in the case of moving picture sequences as a transmission signal,
Figur 2 ein Flussdiagramm zur Veranschaulichung der Ermitt- lung, Auswertung und Übertragung des Differenzsignals Δs (n+-7.,-τι) mit der Verzögerungszeit Δtv,FIG. 2 shows a flow chart to illustrate the determination, evaluation and transmission of the difference signal Δs (n + -7., - τι) with the delay time Δt v ,
Figur 3 ein Beispiel für die Bildung eines Di ferenzsignals Δs (n+-7?,-τ?) für eine Verschiebung um m = 5 Abtast- Zeitpunkte und eine Verzögerungszeitdauer von k = 5FIG. 3 shows an example of the formation of a differential signal Δs (n + -7?, - τ?) For a shift by m = 5 sampling times and a delay period of k = 5
AbtastZeitpunkten,sampling times,
Figur 4 zwei Fälle für ein persistentes Signal (das heißt s ( n) = const.) während des BeobachtungsZeitraumes, also der Verzögerungszeit Δtv zwischen den Messungen #i und # ( i+k) des Signals s ( n) zu den Abtastzeitpunkten n und n+k,4 shows two cases for a persistent signal (that is, s (n) = const.) During the observation period, that is to say the delay time Δt v between the measurements #i and # (i + k) of the signal s (n) at the sampling times n and n + k,
Figur 5 zwei Fälle für ein signifikant zunehmendes bzw. ab- nehmendes Signal (das heißt s (n) ≠ const.) während des BeobachtungsZeitraumes, also der Verzögerungszeit Δtv zwischen den Messungen #i und # ( i+k) des Signals s (n) zu den Abtastzeitpunkten n und n+k, Figur 6 einen Fall für ein signifikant ab- und wieder zunehmendes Signal (das heißt s (n) ≠ const.) während des Beobachtungszeitraumes, also der Verzögerungszeit Δtv zwischen den Messungen #i und #(i+ ) des Signals s (n) zu den Abtastzeitpunkten n und n+k,FIG. 5 shows two cases for a significantly increasing or decreasing signal (ie s (n) ≠ const.) During the observation period, that is to say the delay time Δt v between the measurements #i and # (i + k) of the signal s ( n) at the sampling times n and n + k, 6 shows a case for a significantly increasing and decreasing signal (ie s (n) ≠ const.) During the observation period, that is to say the delay time Δt v between the measurements #i and # (i +) of the signal s (n) the sampling times n and n + k,
Figur 7 je einen Spezialfall für die Annahme eines persistenten Betrags des Signals s (n) der SignaldauerFigure 7 each a special case for the assumption of a persistent amount of the signal s (n) of the signal duration
Δτ > Δtv (also K > k) bzw. eines nicht persistenten Betrags des Signals s (n) der Signaldauer Δτ < Δtv Δτ> Δt v (i.e. K> k) or a non-persistent amount of the signal s (n) of the signal duration Δτ <Δt v
(also K < k) ohne Berücksichtigung eines Amplitu- denschwellwerts d/2 (also d = 0) und(ie K <k) without taking into account an amplitude threshold d / 2 (ie d = 0) and
Figur 8 je einen Spezialfall für die Annahme eines signifi- kanten Betrags des Signals s (n) (also |si| > d/2) bzw. eines nicht signifikanten Betrags des Signals s (n) (also | Si | < d/2) ohne Berücksichtigung einer Verzögerungszeit Δtv (also Δtv = 0 bzw. k = 0) .FIG. 8 each a special case for the assumption of a significant amount of the signal s (n) (ie | si |> d / 2) or an insignificant amount of the signal s (n) (ie | Si | <d / 2) ) without considering a delay time Δt v (i.e. Δt v = 0 or k = 0).
In Figur 1 ist ein Blockschaltbild skizziert, das die Signal- Übertragungskette vom Signalsender zu einem Signalempfänger zeigt, die aus einem Sendezweig, einem Übertragungskanal und einem Empfangszweig besteht . Bei dem zu übertragenden Signal handelt es sich in diesem Fall um eine Bewegtbildsequenz (101) , die von einer analogen Videokamera (102) aufgenommen wurde. Das analoge Ausgangssignal s ( t) der Videokamera (102) wird auf den Eingang eines Moduls (103) geführt, das die Durchführung einer Helligkeitsregelung (HR) bzw. die Durchführung eines Weiß-Abgleichs (WA) für das analoge Sendesignal s ( t) vornimmt. Dadurch kann gewährleistet werden, dass kurzzeitige Störspitzen bzw. -einbrüche und/oder nicht signifikante Signaländerungen im Sendesignal s ( t) nicht übertragen werden. Das Modul (103) kann beispielsweise als Mikrochip in der Videokamera (102) integriert sein. Nach Abtastung und Quantisierung des analogen Sendesignals s ( t) durch den Ana- log-Digital-Wandler (104) entsteht an dessen Ausgang das digitale SendesignalA block diagram is outlined in FIG. 1, which shows the signal transmission chain from the signal transmitter to a signal receiver, which consists of a transmission branch, a transmission channel and a reception branch. In this case, the signal to be transmitted is a moving image sequence (101) which was recorded by an analog video camera (102). The analog output signal s (t) of the video camera (102) is fed to the input of a module (103) which carries out a brightness control (HR) or a white balance (WA) for the analog transmission signal s (t) performs. This can ensure that brief spikes or dips and / or insignificant signal changes in the transmission signal s (t) are not transmitted. The module (103) can be integrated, for example, as a microchip in the video camera (102). After scanning and Quantization of the analog transmit signal s (t) by the analog-digital converter (104) produces the digital transmit signal at its output
«-, [l für n = θ] ^ s (n) = Ys (m) - δ (n- m) für δ (n) := \ } V n e IN0, o { 0 sonst J d.h. s (n) e {0,...,0, s0, Si,..., sn, ... , sN, 0,...,θ}. « -, [l for n = θ] ^ s (n) = Ys (m) - δ (n- m) for δ (n): = \} V ne IN 0 , o {0 otherwise J dh s (n ) e {0, ..., 0, s 0 , Si, ..., s n , ..., s N , 0, ..., θ}.
Wird anstelle einer analogen Videokamera eine digitale Videokamera verwendet, so kann auf die Komponente 104 verzichtet werden. Dieses Signal wird zum Zweck der Redundanzreduktion im Kodierer (105) digital kodiert, wobei ein Differenzsignal Δs (n+m, m) ermittelt wird, dessen Werte sich durch Subtraktion des digitalen Sendesignals s in) von einem um einen Abtastzeitpunkt (-71 = 1) verschobenen digitalen Sendesignal s (n+m) ergibt :If a digital video camera is used instead of an analog video camera, component 104 can be dispensed with. This signal is digitally encoded for the purpose of reducing the redundancy in the encoder (105), a difference signal Δs (n + m, m) being determined, the values of which are subtracted from the digital transmission signal s in) by one by one sampling time (-71 = 1 ) shifted digital transmission signal s (n + m) results in:
Figure imgf000056_0001
Figure imgf000056_0001
Zusätzlich zur Quellenkodierung kann hier auch eine Kanalko- dierung vorgenommen werden. Soll das Signal Δs (j-+-7i,.τ?) über die Luftschnittstelle übertragen werden, muss es zuvor mit Hilfe eines Modulators (106) einem analogen hochfrequenten Trägersignal aufmoduliert werden. Der Übertragungskanal ist in diesem Fall analog und kann durch Addition (107) eines weißen gaußverteilten Rauschsignals r(t) modelliert werdenIn addition to the source coding, channel coding can also be carried out here. If the signal Δs (j - + - 7i, .τ?) Is to be transmitted via the air interface, it must first be modulated onto an analog high-frequency carrier signal with the aid of a modulator (106). The transmission channel is analog in this case and can be modeled by adding (107) a white Gaussian noise signal r (t)
(AWGN-Kanal) . Zur Vereinfachung der Formeln soll im Folgenden angenommen werden, der Übertragungskanal sei ideal, das heißt r ( t) = 0. In diesem Fall kann das Differenzsignal As (n+m, m) am Ausgang des Demodulator (108) im Signalempfänger vollstan- dig und fehlerfrei rekonstruiert werden. Wird das Differenzsignal Δs(n+-?ι,-77) nicht über die Luftschnittstelle, sondern drahtgebunden übertragen, entfallen die Komponenten 106, 107 und 108 in der skizzierten Signalübertragungskette. Der Übertragungskanal, also die leitende Verbindung zwischen dem sen- deseitigen Kodierer (105) und dem empfangsseitigen Dekodierer (109) ist dann digital. Nach der Dekodierung (109) und Digital-Analog-Wandlung (110) kann die Bewegtbildsequenz auf einem Bildschirm oder einem Display (111) angezeigt und vom Auge eines Betrachters (112) wahrgenommen werden. Wird anstelle eines analogen Bildschrims bzw. eines analogen Displays ein digitaler Bildschirm bzw. ein digitales Display verwendet, so kann auf die Komponente 110 verzichtet werden.(AWGN channel). To simplify the formulas, it should be assumed below that the transmission channel is ideal, that is, r (t) = 0. In this case, the difference signal As (n + m, m) at the output of the demodulator (108) can be completely in the signal receiver and be reconstructed without errors. If the difference signal Δs (n + -? Ι, -77) is not via the air interface, but Transfer wired, components 106, 107 and 108 in the outlined signal transmission chain are omitted. The transmission channel, ie the conductive connection between the transmitter-side encoder (105) and the receiver-side decoder (109), is then digital. After decoding (109) and digital-analog conversion (110), the moving image sequence can be displayed on a screen or a display (111) and perceived by the eye of an observer (112). If a digital screen or a digital display is used instead of an analog screen or an analog display, then component 110 can be dispensed with.
Neben der skizzierten Version der Signalübertragungskette ist auch eine Version vorstellbar, bei der das Modul (103) zur Durchführung der Helligkeitsregulierung (HR) bzw. zur Durchführung des Weiß-Abgleichs (WA) für das analoge Sendesignal s ( t) hinter dem Ausgang des Kodierers (105) angeordnet ist. Bei dieser Version erfolgt die Helligkeitsregulierung bzw. der Weiß-Abgleich nach abgeschlossener Ermittlung des Diffe- renzsignals Δs (n+-τ.,ii.) , also für Signale in digitaler Form. Die Abbildungen in den folgenden Figuren 2 bis 8 sind auf diese Version bezogen.In addition to the sketched version of the signal transmission chain, a version is also conceivable in which the module (103) for performing the brightness regulation (HR) or for performing the white balance (WA) for the analog transmission signal s (t) behind the output of the encoder (105) is arranged. In this version, the brightness regulation or the white balance takes place after the determination of the difference signal Δs (n + -τ., Ii.) Has been completed, that is to say for signals in digital form. The figures in the following figures 2 to 8 relate to this version.
In Figur 2 ist der erfindungsgemäße Ablauf der Ermittlung, Auswertung und Übertragung des Differenzsignals As (n+m, m) mit der Verzögerungszeit Δtv in einem Flussdiagramm dargestellt. Vor Beginn der hier dargestellten Prozedur liegt dabei ein digitales Signal s (n) vor, das durch Abtastung mit der Abtastperiode Δt, unter Einhaltung des Shannon-TheoremsFIG. 2 shows the flow of the determination, evaluation and transmission of the difference signal As (n + m, m) with the delay time Δt v according to the invention in a flow chart. Before the beginning of the procedure shown here, a digital signal s (n) is present, which is obtained by sampling with the sampling period Δt while observing the Shannon theorem
Δt < l/(2-B) ,Δt <l / (2-B),
und Quantisierung eines analogen Nutzsignals s ( t) der Bandbreite B gewonnen wurde. Bei dieser Schreibweise wird die Nummer n des jeweiligen Abtastzeitpunktes tn = n - At abkürzend für diesen Zeitpunkt notiert. Aus zeichentechnischen Gründen ist jedoch in Figur 2 nur ein unterabgetastetes Signal s in) dargestellt, also ein Signal, für das das Shannon-Theorem nicht erfüllt ist.and quantization of an analog useful signal s (t) of bandwidth B was obtained. With this notation, the Number n of the respective sampling time t n = n - At is abbreviated for this time. For drawing technology reasons, however, only one subsampled signal s in) is shown in FIG. 2, that is to say a signal for which the Shannon theorem is not fulfilled.
Nach der Initialisierung des Zählers ZA für die Abtastzeitpunkte n durch die Zuweisung n := 0 und der Initialisierung des Zählers ZM für die Messzeitpunkte i mit Hilfe der Zuwei- sung i := 0 (Schritt 201) erfolgt auf der Seite des Signalsenders eine erste Messung (Messung #i) und Speicherung des aktuellen Signalwerts von s {n) zum Abtastzeitpunkt n (Schritt 202). Dieser gemessene Abtastwert des digitalen Signals s (n) sei im Folgenden mit si : = sn bezeichnet. Wurde eine Verzöge- rungszeit Δtv abgewartet (Schritt 203) , die einige Abtastperioden Δt umfassen kann (Δtv > Δt) , wird eine Inkrementierung des Zählers ZA für die Abtastzeitpunkte n durch Ausführung der Zuweisung n : = n+k mit der VerschiebungAfter the initialization of the counter Z A for the sampling times n by the assignment n: = 0 and the initialization of the counter Z M for the measurement times i with the aid of the assignment i: = 0 (step 201), a signal is carried out on the signal transmitter side first measurement (measurement #i) and storage of the current signal value of s {n) at the sampling time n (step 202). This measured sample value of the digital signal s (n) is referred to below as si: = s n . If a delay time .DELTA.t v has been waited for (step 203), which may comprise a few sampling periods .DELTA.t (.DELTA.t v > .DELTA.t), the counter Z A is incremented for the sampling times n by executing the assignment n: = n + k with the shift
k := [Atv/At } ≥ 1,k: = [At v / At} ≥ 1,
eine Inkrementierung des Zählers ZM für die Messzeitpunkte i unter Durchführung der Zuweisung i := i+k (Schritt 204) sowie eine Messung und Speicherung des aktuellen Signalwerts von s {n+k) zum Abtastzeitpunkt n+k (Schritt 205) im Signalsender vorgenommen (Messung # (i+k) ) . Während der Verzögerungszeit Δtv werden zu allen Abtastzeitpunkten weitere Messungen und Speicherungen abgetasteter Signalwerte sι+ι := sn+1, Si+2 := sn+2 bis Si+-ι := sπ+k-ι (Messungen #(i+l) bis #(i+-t-l)) vorgenom- men. Der abgetastete Signalwert zum Zeitpunkt der ( i+k) -ten Merssung sei im Folgenden mit Si+k := sn+k bezeichnet.an incrementation of the counter Z M for the measuring times i by performing the assignment i: = i + k (step 204) and a measurement and storage of the current signal value of s {n + k) at the sampling time n + k (step 205) in the signal transmitter made (measurement # (i + k)). During the delay time Δt v , further measurements and storage of sampled signal values sι + ι: = s n + 1 , Si +2 : = s n + 2 to Si + -ι: = s π + k -ι (measurements # (i + l) to # (i + -tl)). The sampled signal value at the time of the (i + k) th measurement is referred to below as Si + k : = s n + k .
Das zu übertragende Differenzsignal Δs (n+m, m) wird allgemein als vorzeichenbehaftete Differenz des um m Abtastzeitpunkte verzögerten Nutzsignals s {n+m) gegenüber dem im Signalsender gemessenen Originalsignal s in) nach der VorschriftThe difference signal Δs (n + m, m) to be transmitted is generally regarded as the signed difference of the m sampling times delayed useful signal s {n + m) compared to the original signal s in) measured in the signal transmitter according to the regulation
s (n + m)-s (n) für O ≤ n ≤ N - m
Figure imgf000059_0001
0 sonst
s (n + m) -s (n) for O ≤ n ≤ N - m
Figure imgf000059_0001
0 otherwise
berechnet. Die zum Zeitpunkt n+k zu übertragende Signaländerung Δs+k wird demgemäß nach der Formelcalculated. The signal change Δs + k to be transmitted at the time n + k is accordingly according to the formula
kk
Δsi+k := Si+k - Si = ^Δs.^Δs i + k : = Si + k - Si = ^ Δs. ^
3 = 13 = 1
ermittelt (Schritt 106) . Als Nächstes wird anhand einer Abfrage (Schritt 107) getestet, ob bereits im Abstand m zwei Abtastwerte des Signals s (n) vorliegen, die miteinander verglichen werden können. Wurden mindestens zwei Abtastwerte des Originalsignals s {n) abgewartet, gilt alsodetermined (step 106). Next, a query (step 107) is used to test whether there are already two samples of the signal s (n) at a distance m that can be compared with one another. If at least two samples of the original signal s {n) were waited for, the following applies
n+m ≥ 2 m <-> n ≥ m,n + m ≥ 2 m <-> n ≥ m,
kann ein Vergleich jeweils zweier Abtastwerte Si+j und si+j-i (für j = 1,2,3, ..., k) des Signals s (n) zu den Zeitpunkten n+1 , n+2 , n+3 bis n+k zur Bildung eines Differenzsignalwertsa comparison of two samples Si + j and si + j -i (for j = 1,2,3, ..., k) of the signal s (n) at times n + 1, n + 2, n + 3 to n + k to form a difference signal value
S +j : = Si+j — i+j-iS + j : = Si + j - i + j -i
vorgenommen werden ("Ja" -Fall) . Andernfalls erfolgt ein Rücksprung zu Schritt 103 ("Nein" -Fall) . Im "Ja" -Fall gilt es bei dem oben genannten Vergleich zu untersuchen, ob die zu den Abtastzeitpunkten n , n+1 , n+2 , n+3 bis n+k ermittelten Signalwerte Si, si+i, si+2 bis si+k einen vorgegebenen Schwellwert +Sref/'V2 bzw.
Figure imgf000059_0002
über- bzw. unterschreiten, also die Ungleichung | s ( n ) | > 5ref/ V-? für n , n+1 , n+2 , . . . , n+k ( * ) alSO | Si | > Sref/ V-? Λ | Si+χ | > Sref/ 2 Λ . . . Λ | Si+k | > 5ref / V-?
be made ("Yes" case). Otherwise, a return is made to step 103 ("No" case). In the "yes" case, it is necessary to examine whether the signal values Si, si + i, s i + 2 determined at the sampling times n, n + 1, n + 2, n + 3 to n + k to s i + k a predetermined threshold value + S ref / ' V2 or
Figure imgf000059_0002
exceed or fall below, i.e. the inequality | s (n) | > 5 ref / V-? for n, n + 1, n + 2,. , , , n + k (*) alSO | Si | > Sre f / V-? Λ | Si + χ | > S re f / 2 Λ. , , Λ | Si + k | > 5 re f / V-?
erfüllt ist . Der Betrag des Abstands zwischen dem oberen Amp- litudenschwellwert +Sref/V2 und dem unteren Amplituden- schwellwert -Sref/ -? sei im Folgenden mitis satisfied . The amount of the distance between the upper amplitude threshold + S ref / V2 and the lower amplitude threshold -S r e f / -? be with in the following
: = 2 • Sref / 2 = Sref 2 : = 2 • S ref / 2 = Sref 2
bezeichnet. Ob die obigen Ungleichungen (*) zutreffen oder nicht, wird mit Hilfe einer Abfrage (Schritt 108) getestet. Treffen sie zu ("Ja"-Fall), kann zum Abtastzeitpunkt n+k eine Übertragung des Differenzsignalwerts Δsi+ vom Signalsender zum Signalempfänger erfolgen. Andernfalls erfolgt ein Rücksprung zu Schritt 103 ("Nein" -Fall) . Auf der Seite des Empfängers wird nach Verstreichen der Übertragungszeit Δtü der Abtastwert des erhaltenen Differenzsignals Δsi+ vorzeichenrichtig zum letzten vorliegenden Abtastwert Si des Signals s in) addiert, um zum Abtastzeitpunkt n+k den Signalwertdesignated. A query (step 108) is used to test whether the above inequalities (*) apply or not. If they apply ("yes" case), the difference signal value Δsi + can be transmitted from the signal transmitter to the signal receiver at the sampling time n + k. Otherwise, a return is made to step 103 ("No" case). On the receiver side, after the transmission time .DELTA.t ü has elapsed, the sample value of the difference signal .DELTA.si + obtained with the correct sign is added to the last available sample value Si of the signal s in) in order to obtain the signal value at the sampling time n + k
Si+k = Si + Δsi+k Si + k = Si + Δsi + k
zu erhalten. Falls die Übertragung des kompletten Differenz- signals Δs (ι-+-τ.,-τ.) beendet ist, also die Ungleichungto obtain. If the transmission of the complete difference signal Δs (ι - + - τ., - τ.) Has ended, ie the inequality
n > N-mn> N-m
erfüllt ist, ist die Übertragung abgeschlossen. Andernfalls beginnt die Prozedur von Neuem mit Schritt 101.the transfer is complete. Otherwise, the procedure starts again from step 101.
In Figur 3 wird anhand eines aus drei Abbildungen bestehenden Beispiels gezeigt, wie die Differenzsignale Δs (n+-7?,-τ.) ermit- telt werden. Als Ausgangssignal wird in Abbildung 1 die analoge Signalspannung s { t) betrachtet, deren momentane Amplitude beispielsweise einen proportionalen Wert zur momentanen Helligkeit bzw. Lautstärke eines aufgenommenen Bild- bzw. Tonsignals angibt. Nach der Abtastung des analogen Nutzsignals s { t) mit der Abtastperiode Δt (normalerweise unter Einhaltung des Shannon-Theorems, hier jedoch aus zeichentechnischen Gründen in einer unterabgetasteten Darstellung) und der Quantisierung des abgetasteten Signals liegt das Nutzsignal in digitaler Form s {n) vor, wie in Abbildung 2 dargestellt. Um die Datenrate R der Signalübertragung vom Signalsender zum Signalempfänger zu reduzieren, wird nicht das Signal s {n) , sondern das um m Abtastzeitpunkte) verzögerte Differenzsignal As {n+m, m) übertragen. In Abbildung 3 ist das ermittelte Dif- ferenzsignal As {n+m, m) für die Verschiebung m = 5 skizziert. Die Verzögerung der Übertragung von Δs (n+-τ.,-τ.) ist außerdem notwendig, um kurzzeitig auftretende Störspitzen im Originalsignal s (n) vernachlässigen zu können, die innerhalb der betreffenden k Abtastzeitpunkte möglicherweise auftreten. Verhält sich das Signal s (n) während dieser Zeitspanne quasistationär, gilt alsoIn FIG. 3, an example consisting of three figures shows how the difference signals Δs (n + -7?, - τ.) be communicated. In Figure 1, the analog signal voltage s {t) is considered as the output signal, the instantaneous amplitude of which, for example, indicates a value proportional to the instantaneous brightness or volume of a recorded image or sound signal. After the sampling of the analog useful signal s {t) with the sampling period Δt (normally in compliance with the Shannon theorem, but here for reasons of drawing technology in a subsampled representation) and the quantization of the sampled signal, the useful signal is available in digital form s {n) as shown in Figure 2. In order to reduce the data rate R of the signal transmission from the signal transmitter to the signal receiver, not the signal s {n), but the difference signal As {n + m, m) delayed by m sampling times) is transmitted. Figure 3 shows the difference signal As {n + m, m) determined for the shift m = 5. The delay in the transmission of Δs (n + -τ., - τ.) Is also necessary in order to be able to neglect briefly occurring interference peaks in the original signal s (n) which may occur within the k sampling times concerned. The signal s (n) is quasi-stationary during this period, so it applies
ds (t)ds (t)
«0 für t e [n - At ; (n+k) - At] , dt«0 for t e [n - At; (n + k) - At], German
erfolgt eine Übertragung des Differenzsignalswerts vonthe difference signal value of is transmitted
As (n+m, m) zum Zeitpunkt n+k nur dann, wenn s (n) zu diesem Zeitpunkt dem Betrage nach einen geeignet festgelegtenAs (n + m, m) at time n + k only if s (n) at that time has a suitably determined amount
Schwellwert Sref/ xj~2 überschreitet. Dieser Schwellwert kann etwa durch ein Gleichspannungssignal sref(t) = const. oder durch den Effekivwert der Amplitude eines sinusoidalen WechselspannungsSignals Sref(t) repräsentiert werden, das als Referenzsignal dient. Figur 4 veranschaulicht bildhaft zwei Fälle für ein persistentes Signal ( s (n) = const.) während des Beobachtungszeitraumes, also der Verzögerungszeit Δtv zwischen den Messungen #i und #(i+k) des Signals s (n) zu den Abtastzeitpunk- ten n=15 bis n+k=20 .Threshold value S ref / xj ~ 2 exceeds. This threshold value can be determined by a direct voltage signal s ref (t) = const. or represented by the effective value of the amplitude of a sinusoidal AC voltage signal Sref (t), which serves as a reference signal. FIG. 4 illustrates two cases for a persistent signal (s (n) = const.) During the observation period, that is, the delay time Δt v between the measurements #i and # (i + k) of the signal s (n) at the sampling times. ten n = 15 to n + k = 20.
In Fall a) wird ein Beispiel gezeigt, bei dem der Betrag der Signalamplitude von s (n) für die besagten (k+1) Abtastzeitpunkte einen konstanten Wert oberhalb eines vorgegebenen Schwellwerts annimmt. Für die Entscheidung, ob der aktuelle Abtastwert Si+k des Signals s (n) zum Abtastzeitpunkt n+k=20 übertragen werden soll, interessieren jedoch nur die ermittelten Werte des Signals s (n) zum Zeitpunkt der Messungen #i bis #(i+k), also zu den Abtastzeitpunkten n=15 bis n+k=20 . Da in Fall a) die BedingungIn case a) an example is shown in which the magnitude of the signal amplitude of s (n) assumes a constant value above a predetermined threshold value for said (k + 1) sampling times. For the decision as to whether the current sample value Si + k of the signal s (n) should be transmitted at the sampling time n + k = 20, only the determined values of the signal s (n) at the time of the measurements #i to # (i + k), i.e. at the sampling times n = 15 to n + k = 20. Because in case a) the condition
Figure imgf000062_0001
zu den Zeitpunkten n=15 bis n+k=20 ( * * )
Figure imgf000062_0001
at times n = 15 to n + k = 20 (* *)
erfüllt ist, kann zum Zeitpunkt n+k=20 die Übertragung des Differenzsignalwerts Δsi+k erfolgen.is satisfied, the transmission of the difference signal value Δsi + k can take place at the time n + k = 20.
In Fall b) wird ein Beispiel gezeigt, bei dem der Betrag der Signalamplitude von s(n) für die besagten { k+1 ) Abtastzeit- punkte einen konstanten Wert unterhalb eines vorgegebenen Schwellwerts annimmt, und zwar den Wert Null. Für die Entscheidung, ob der aktuelle Abtastwert Δsi+k des Differenzsignals zum Abtastzeitpunkt n+k=20 übertragen werden soll, interessieren jedoch wieder nur die ermittelten Werte des Signals s (n) zum Zeitpunkt der Messungen #i bis #(i+k), also zu den Abtastzeitpunkten n=15 bis n+k=20 . Da in Fall b) die Bedingung (**) nicht erfüllt ist, kann zum Zeitpunkt n+k=20 keine Übertragung des Differenzsignalwerts Δsi+k erfolgen. Figur 5 zeigt zwei Fälle für ein signifikant zunehmendes bzw. abnehmendes Signal (s (n) ≠ const.) während des Beobachtungszeitraumes, also der Verzögerungszeit Δtv zwischen den Messungen #i und #(i+k) des Signals s in) zu den Abtastzeitpunk- ten n=15 bis n+k=20 . Die Bezeichnung "signifikant" bedeutet in diesem Zusammenhang, dass der Betrag der Signalamplitude von s (n) innerhalb der besagten ( k+1 ) Abtastzeitpunkte einen vorgegebener Schwellwert über- bzw. unterschreitet. In Fall c) ist eine signifikante Zunahme der betragsmäßigen Signalän- derung |s(n)| während dieses Zeitraums dargestellt, in Fall d) eine signifikante Abnahme von \ s (n) \ . Das Signal s (n) nimmt dabei während dieses Zeitraums Werte an, für dieIn case b) an example is shown in which the magnitude of the signal amplitude of s (n) for the said {k + 1) sampling times assumes a constant value below a predetermined threshold value, namely the value zero. Only the determined values of the signal s (n) at the time of the measurements #i to # (i + k) are of interest for the decision as to whether the current sample value Δsi + k of the difference signal should be transmitted at the sampling time n + k = 20. , i.e. at the sampling times n = 15 to n + k = 20. Since the condition (**) is not fulfilled in case b), the differential signal value Δs i + k cannot be transmitted at the time n + k = 20. FIG. 5 shows two cases for a significantly increasing or decreasing signal (s (n) ≠ const.) During the observation period, that is to say the delay time Δt v between the measurements #i and # (i + k) of the signal s in) Sampling times n = 15 to n + k = 20. The term "significant" in this context means that the magnitude of the signal amplitude of s (n) within the said (k + 1) sampling times exceeds or falls below a predetermined threshold value. In case c) there is a significant increase in the absolute signal change | s (n) | represented during this period, in case d) a significant decrease of \ s (n) \. During this period, the signal s (n) assumes values for which
s (n) > + SX Ϊ/ SI~2 bzw . 0 < s ( n) < +Sref / 2s (n)> + S X Ϊ / SI ~ 2 resp. 0 <s (n) <+ S ref / 2
gilt, wobei es zu einer Über- bzw. Unterschreitung desapplies, whereby there is an overshoot or undershoot of the
Schwellwerts +5ref/v2 kommt. Möglich sind aber auch Fälle, bei denen das Signal s (n) während dieses Zeitraums Werte annimmt, für dieThreshold +5 ref / v2 is coming. However, cases are also possible in which the signal s (n) assumes values during this period for which
s (n) < - Sret/ 2 bzw . 0 > s (n) > - 5ref ' V-?s (n) <- S ret / 2 resp. 0> s (n)> - 5 ref 'V-?
gilt, wobei es zu einer Unter- bzw. Überschreitung des Schwellwerts
Figure imgf000063_0001
kommt. Für die Entscheidung, ob der Differenzsignalwert Δsι+ zum Abtastzeitpunkt ι-+A:=20 übertragen werden soll, interessieren jedoch wieder nur die ermittelten Werte des Signals s (n) zum Zeitpunkt der Messungen #i bis #(i+k), also zu den Abtastzeitpunkten n-=15 bis n+k=20 . Da in Fall c) die Bedingung (**) nicht erfüllt ist, kann zum Zeitpunkt n+k keine Übertragung des Differenzsignalwerts Δsi+k erfolgen. In Fall d) ist die Bedingung (**) auch nicht erfüllt, so dass auch hier zum Zeitpunkt n+k=20 die Übertragung des Differenzsignalwerts Δsi+k nicht erfolgen kann. Der in Figur 6 abgebildete Fall e) zeigt ein Beispiel für ein signifikant abnehmendes und wieder signifikant zunehmendes Signal (s (n) ≠ const.) während des Beobachtungszeitraumes, also der Verzögerungszeit Δtv zwischen den Messungen #i und #(i+k) des Signals s(n) zu den Abtastzeitpunkten n=15 und n+k=20 . Für die Entscheidung, ob der Differenzsignalwert Δsi+k zum Abtastzeitpunkt n+k=2 Q übertragen werden soll, interessieren wieder nur die ermittelten Werte des Signals s (n) zum Zeitpunkt der Messungen #i bis #(i+k), also zu den Abtastzeitpunkten n=15 bis n+k=20 . Da in Fall e) die Bedingung (**) erfüllt ist, kann zum Zeitpunkt n+k die Übertragung des Differenzsignalwerts Δsi+k erfolgen, unabhängig davon, welche Werte s {n) für die dazwischen liegenden Abtastzeitpunkte n+l=16 bis n+k-l=19 annimmt.
applies, whereby the threshold value is exceeded or not reached
Figure imgf000063_0001
comes. For the decision as to whether the difference signal value Δsι + should be transmitted at the sampling time ι- + A: = 20, only the determined values of the signal s (n) at the time of the measurements #i to # (i + k) are of interest at the sampling times n- = 15 to n + k = 20. Since the condition (**) is not fulfilled in case c), the differential signal value Δs i + k cannot be transmitted at the time n + k. In case d), the condition (**) is also not fulfilled, so that here too the transmission of the difference signal value Δs i + k cannot take place at the time n + k = 20. The case e) shown in FIG. 6 shows an example of a significantly decreasing and again significantly increasing signal (s (n) ≠ const.) During the observation period, that is to say the delay time Δt v between the measurements #i and # (i + k) of the signal s (n) at the sampling times n = 15 and n + k = 20. For the decision as to whether the difference signal value Δsi + k should be transmitted at the sampling time n + k = 2 Q, again only the determined values of the signal s (n) at the time of the measurements #i to # (i + k) are of interest the sampling times n = 15 to n + k = 20. Since the condition (**) is fulfilled in case e), the difference signal value Δsi + k can be transmitted at time n + k, regardless of which values s {n) for the sampling times n + l = 16 to n in between + kl = 19 assumes.
In Figur 7 sind zwei Spezialfälle skizziert, bei denen nur die Verzögerungszeit Δtv, jedoch kein Amplitudenwert d/2 als Schwellwert zugelassen wird; es gilt also d = 0. Falls das Signal s (n) für die Signaldauer Δτ bzw. K := \~Aτ/At ] mitIn Figure 7, two special cases are outlined, in which only the delay time Δt v , but no amplitude value d / 2 is permitted as a threshold value; so d = 0 applies. If the signal s (n) for the signal duration Δτ or K: = \ ~ Aτ / At] with
Δτ > Δtv bzw. mit K > k bei d = 0 (Annahme 1)Δτ> Δt v or with K> k at d = 0 (assumption 1)
persistent ist, erfolgt eine Übertragung des Differenzsignal- werts Δs+ zum AbtastZeitpunkt n+k=20 . Gilt jedoch für die Signaldaueris persistent, the difference signal value Δs + is transmitted at the sampling time n + k = 20. However, this applies to the signal duration
Δτ < Δtv bzw. K < k bei d = 0 (Annahme 2) ,Δτ <Δt v or K <k at d = 0 (assumption 2),
so findet keine Übertragung des Differenzsignalwerts Δsi+k zum AbtastZeitpunkt n+k=20 statt. In Figur 8 sind zwei Spezialfälle skizziert, bei denen nur der Amplitudenwert d/2, jedoch keine Verzögerungszeit Δtv als Schwellwert zugelassen wird; es gilt also Δtv = 0. Falls der Betrag eines Signalwerts Si einen Amplitudenwert d/2 über- schreitet, alsothe differential signal value Δs i + k is not transmitted at the sampling time n + k = 20. In Figure 8, two special cases are outlined, in which only the amplitude value d / 2, but no delay time Δt v is allowed as a threshold value; therefore Δt v = 0. If the magnitude of a signal value Si exceeds an amplitude value d / 2, that is
| Si | > d/2 bei Δtv = 0 (Annahme 3)| Si | > d / 2 at Δt v = 0 (assumption 3)
gilt, erfolgt eine Übertragung des Differenzsignalwerts Δsi+k zum AbtastZeitpunkt n+k=20 . Gilt jedoch für die Signaldauerapplies, the difference signal value Δsi + k is transmitted at the sampling time n + k = 20. However, this applies to the signal duration
)si| < d/2 bei Δtv = 0 (Annahme 4),) Si | <d / 2 at Δt v = 0 (assumption 4),
so findet keine Übertragung des Differenzsignalwerts Δs+k zum AbtastZeitpunkt n+k=20 statt.the differential signal value Δs + k is not transmitted at the sampling time n + k = 20.
Die Bedeutung der in den Figuren 1 und 2 mit Ziffern bezeichneten Symbole kann der nachfolgenden Bezugszeichenliste entnommen werden. The meaning of the symbols denoted by numerals in FIGS. 1 and 2 can be found in the list of reference symbols below.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
Nr. BezeichnungNo.
101 Häuserblock mit Gehweg als aufgenommene Bildszene einer Bewegtbildsequenz101 block of houses with sidewalk as recorded image scene of a moving image sequence
102 Videokamera als Signalaufnehmer zur Aufnahme von Bewegt- bildsequenzen mit dem analogen Ausgangssignal s { t) als Sendesignal102 Video camera as a signal recorder for recording moving picture sequences with the analog output signal s (t) as a transmission signal
103 Modul zur Durchführung einer Helligkeitsregelung (HR) bzw. zur Durchführung eines Weiß-Abgleichs (WA) für das analoge Sendesignal s { t)103 Module for performing a brightness control (HR) or for performing a white balance (WA) for the analog transmission signal s {t)
104 Analog-Digital-Wandler zur Abtastung und Quantisierung des analogen Sendesignals s { t) mit dem digitalen Sendesignal s {n) am Ausgang104 analog-digital converter for sampling and quantizing the analog transmission signal s {t) with the digital transmission signal s {n) at the output
105 Kodierer zur Durchführung der Quellen- und/oder Kanalkodierung des digitalen Sendesignals s (n) mit dem Differenzsignal f s (n + m) - s (n) für 0 < n ≤ N — m As { n+m, ) : = < mit m = 1 0 sonst am Ausgang des Kodierers105 encoders for performing the source and / or channel coding of the digital transmission signal s (n) with the difference signal fs (n + m) - s (n) for 0 <n ≤ N - m As {n + m,): = < with m = 1 0 otherwise at the encoder output
106 Modulator zur Trägerung des zu übertragenden Differenzsignals As (n+m, m) mit dem Ausgangssignal Δsd(t)106 modulator for carrying the differential signal As (n + m, m) to be transmitted with the output signal Δs d (t)
107 Addierer zur Modellierung der Störung des zu übertragenden Signals Δsmod(t) durch ein additives weißes gaußförmi- ges Rauschen r( t)107 adders for modeling the disturbance of the signal Δs mod (t) to be transmitted due to an additive white Gaussian noise r (t)
(Zur Vereinfachung der Formeln gelte im Folgenden die Annahme, der Übertragungskanal sei ideal, also r ( t) = 0.)(To simplify the formulas, the assumption below is that the transmission channel is ideal, i.e. r (t) = 0.)
108 Demodulator zur Rückgewinnung des zu übertragenden Differenzsignals Δs(2-+iT.,-7.)108 demodulator for recovering the differential signal Δs to be transmitted (2- + iT., - 7.)
109 Dekodierer zur Durchführung der Quellen- und/oder Kanal- dekodierung zur Gewinnung des digitalen Sendesignals s (21+27.) = As (n+m , m) + s (n ) am Ausgang des Dekodierers109 decoders for performing the source and / or channel decoding to obtain the digital transmission signal s (21 + 27.) = As (n + m, m) + s (n) at the output of the decoder
110 Digital-Analog-Wandler zur Rekonstruktion des analogen Sendesignals s ( t)110 digital-to-analog converter for the reconstruction of the analog transmission signal s (t)
111 Bildschirm bzw. Display als Signalempfänger zur Anzeige der aufgenommenen Bewegtbildsequenzen111 Screen or display as signal receiver for displaying the recorded moving picture sequences
112 Wahrnehmung der empfangenen Bewegtbildsequenzen im Auge des Betrachters112 Perception of the received moving picture sequences in the eye of the beholder
201 Aktionen: Initialisierung des Zählers ZA für die Abtastzeitpunkte 2 durch die Zuweisung n := 0 und Initialisierung des Zählers ZM für die Messzeitpunkte i durch die Zuweisung i := 0201 Actions: Initialization of the counter Z A for the sampling times 2 by the assignment n: = 0 and initialization of the counter Z M for the measurement times i by the assignment i: = 0
202 Aktionen: Messung des abgetasteten Signalwerts Si := sn eines digitalen Nutzsignals s (n) zum AbtastZeitpunkt n im Signalsender (Messung #i) und Speicherung dieses Werts 203 Aktionen: Abwarten einer mehrere Abtastzeitpunkte umfassenden Verzögerungszeit Δtv (Δtv ≥ Δt) unter Durchführung weiterer Messungen abgetasteter Signalwerte si+1 := sn+1 bis si+k-i := sn+k-ι (Messungen #(i+l) bis #(i+Jc-l)) und Speicherung dieser Werte202 Actions: Measurement of the sampled signal value Si: = s n of a digital useful signal s (n) at the sampling time n in the signal transmitter (measurement #i) and storage of this value 203 Actions: Wait for a delay time Δt v (Δt v ≥ Δt) comprising several sampling times while performing further measurements of sampled signal values s i + 1 : = s n + 1 to si + k -i: = s n + k -ι (measurements # (i + l) to # (i + Jc-l)) and storing these values
204 Aktionen: Inkrementierung des Zählers ZR für die Abtast- Zeitpunkte 21 durch die Zuweisung 21 : = n+k mit der Verschiebung k := rΔtv/Δtl > 1 und Inkrementierung des Zählers ZM für die Messzeitpunkte i unter Durchführung der Zuweisung i := i+k204 Actions: incrementing the counter Z R for the sampling times 21 by the assignment 21: = n + k with the shift k: = rΔtv / Δtl> 1 and incrementing the counter Z M for the measurement times i while carrying out the assignment i: = i + k
205 Aktionen: Messung des abgetasteten Signalwerts Si+k := sn+k des Nutzsignals s (n) zum Abtastzeitpunkt n+k im Signal- sender (Messung #(!+ )) und Speicherung dieses Werts205 Actions: Measurement of the sampled signal value Si + k : = s n + k of the useful signal s (n) at the sampling time n + k in the signal transmitter (measurement # (! +)) And storage of this value
206 Aktion: Ermittlung der zu übertragenden aktuellen Signal- anderung206 Action: Determination of the current signal change to be transmitted
Δsi+k := S+k - Si des Signalwerts Si+ von s (n) zum Abtastzeitpunkt n+k gegenüber dem Signalwert S von s (n) zum AbtastZeitpunkt n im Signalsender 207 Abfrage: Wurden mindestens zwei Abtastwerte des Original- signals s (n) abgewartet, gilt also n+m ≥ 2 - m <=> n ≥ m ?Δsi + k : = S + k - Si of the signal value Si + from s (n) at the sampling time n + k compared to the signal value S from s (n) at the sampling time n in the signal transmitter 207 Query: Have at least two samples of the original signal s (n) waited, does n + m ≥ 2 - m <=> n ≥ m apply?
208 Abfrage: Über- bzw. unterschreiten die zu den Abtastzeitpunkten n , 21+I, 21+2, ..., n+k ermittelten Signalwerte Si, si+i, Si+ , ..., Si+k einen gegebenen Schwellwert +Sref/V-? bzw. - Sτet/ 2 , gilt also die Ungleichung | si+j | > Sref/ *J~ , das heißt | si+j | > d/2 für j = 0,1,2, . . , k 1208 Query: The signal values Si, si + i, Si + , ..., Si + k determined at the sampling times n, 21 + I, 21 + 2, ..., n + k fall below a given threshold value + S ref / V-? or - S τe t / 2, the inequality | si + j | > S ref / * J ~ , that is | s i + j | > d / 2 for j = 0,1,2,. , , k 1
209 Aktion: Übertragung der aktuellen Signaländerung Δsi+k vom Signalsender zum Signalempfänger zum Abtastzeitpunkt n+k und Durchführung der Addition 209 Action: Transmission of the current signal change Δsi + k from the signal transmitter to the signal receiver at the sampling time n + k and implementation of the addition
Figure imgf000067_0001
Figure imgf000067_0001
210 Abfrage: Ist die Übertragung des kompletten Differenzsignals Δs (n+m, m) beendet, gilt also n > N-m ? 210 Query: Has the transmission of the complete difference signal Δs (n + m, m) ended, does n > Nm apply?

Claims

Patentansprüche claims
1. Verfahren zur Regelung von zumindest einer Signalkomponente mindestens eines Datensignals (DS) , dadurch gekennzeichnet, dass die Regelung mittels mindestens eines Korrektursignals (KS) zu diskreten Zeitpunkten erfolgt, in Abhängigkeit von Amplitude bzw. Dauer der Änderungen von zumindest einer Signalkomponente des Datensignals (DS) .1. A method for regulating at least one signal component of at least one data signal (DS), characterized in that the regulation is carried out by means of at least one correction signal (KS) at discrete times, depending on the amplitude or duration of the changes in at least one signal component of the data signal ( DS).
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet , dass eine Übermittlung des Datensignals (DS) von einer Signalquelle (102) zu einer Signalsenke (111) mittels einer Übertragung von Differenz-Daten- Signalen (DDS) erfolgt.2. The method according to claim 1, characterized in that the data signal (DS) is transmitted from a signal source (102) to a signal sink (111) by means of a transmission of differential data signals (DDS).
3. Verfahren nach einem der Ansprüche 1 oder 2 , dadurch gekennzeichnet , dass das Datensignal (DS) im Verlauf der Regelung seinen aktuellen Wert ändert, sofern die Werte des Datensignals (DS) wenigstens einen als Reaktionsniveau geeignet festgelegten Schwellwert σref über- bzw. unterschreiten.3. The method according to claim 1 or 2, characterized in that the data signal (DS) changes its current value in the course of the regulation, provided that the values of the data signal (DS) exceed or exceed at least one threshold value σ ref suitable as a reaction level. below.
4. Verfahren nach Anspruch 3 , dadurch gekennzeichnet , dass es sich bei mindestens einem der als Reaktionsniveau verwendeten Schwellwerte σref um eine fest vorgegebene Verzögerungszeitdauer Δtv handelt.4. The method according to claim 3, characterized in that at least one of the threshold values σ ref used as the reaction level is a predefined delay time period Δt v .
5. Verfahren nach einem der Ansprüche 3 oder 4 , dadurch gekennzeichnet , dass es sich bei mindestens einem der als Reaktionsniveau verwendeten Schwellwerte σref um einen Amplituden-, Frequenz- und/oder Phasenwert handelt. 5. The method according to any one of claims 3 or 4, characterized in that at least one of the threshold values σ ref used as the reaction level is an amplitude, frequency and / or phase value.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass es sich bei dem Datensignal (DS) um ein Videosignal (VS) handelt.6. The method according to any one of claims 1 to 5, characterized in that the data signal (DS) is a video signal (VS).
7. Verfahren nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet , dass es sich bei der als Schwell- wert vorgegebenen Intensität und/oder Frequenz um mindestens einen Luminanz- (Yref) und/oder Chrominanzwert ( U- ref/Vref) handelt, mit dem die Werte der Luminanz (Y) bzw. Chrominanz ( U, V) eines empfangenen digitalen Videosignals (VS) verglichen werden.7. The method according to any one of claims 3 to 6, characterized in that the intensity and / or frequency given as the threshold value is at least one luminance (Y ref ) and / or chrominance value (U- ref / V ref ) with which the values of the luminance (Y) or chrominance (U, V) of a received digital video signal (VS) are compared.
8. Verfahren nach einem der Ansprüche 3 bis 7, dadurch gekennzeichnet , dass zur Festlegung der Schwell- werte für die kleinste wahrnehmbare Luminanz- (ΔYJN) bzw.8. The method according to any one of claims 3 to 7, characterized in that to determine the threshold values for the smallest perceptible luminance (ΔY J N) or
Chrominanzänderung (ΔL7JN,ΔIJN) des empfangenen Videosignals (VS) in Abhängigkeit von den durch (Y, U, V) env charakterisierten Beleuchtungsverhältnissen in der Umgebung des Bildsignalgebers die psychooptischen Eigenscha ten des menschlichen Sehvermögens im Hinblick auf die Amplituden- und/oder Frequenzmodulationsschwelle, die wahrnehmbare Frequenzgruppenbreite ΔfG und die durch die Maskierung von Nutzstrahlung durch Störstrahlung im Zeit- und/oder Frequenzbereich hervorgerufenen Effekte ausgewertet werden.Chrominance change (ΔL7 JN , ΔIJN) of the received video signal (VS) as a function of the lighting conditions in the environment of the image signal generator characterized by (Y, U, V) env , the psycho-optical properties of human eyesight with regard to the amplitude and / or frequency modulation threshold , the perceptible frequency group width Δf G and the effects caused by the masking of useful radiation by interference radiation in the time and / or frequency range are evaluated.
9. Verfahren nach einem der Ansprüche 3 bis 8, dadurch gekennzeichnet , dass es sich dabei um die Durchführung des Weiß-Abgleichs von Videosignalen (VS) handelt, bei dem Helligkeit, Farbton und/oder Farbsättigung der von einer Videokamera (102) aufgenommenen Bewegtbilder (101) in Abhängigkeit von den Beleuchtungsverhältnissen in der Umgebung der Videokamera (102) reguliert werden. 9. The method according to any one of claims 3 to 8, characterized in that it is to carry out the white balance of video signals (VS), in the brightness, hue and / or color saturation of the moving images recorded by a video camera (102) (101) can be regulated depending on the lighting conditions in the vicinity of the video camera (102).
10.Verfahren nach einem der Ansprüche 3 bis 9, dadurch gekennzeichnet , dass nach dem Verstreichen einer Verzögerungszeit Δtv und/oder nach dem Über- bzw. Unterschreiten mindestens eines geeignet festgelegten Schwell- werts σref sendeseitig ein sofortiges Umschalten auf den neuen Wert des Korrektursignals (KS) erfolgt.10.The method according to any one of claims 3 to 9, characterized in that after the lapse of a delay time .DELTA.t v and / or after exceeding or falling below at least one suitably defined threshold value σ ref, an immediate switch to the new value of Correction signal (KS) takes place.
11.Verfahren nach einem der Ansprüche 3 bis 9, dadurch gekennzeichnet, dass nach dem Verstreichen einer Verzögerungszeit Δtv und/oder dem Über- bzw. Unterschreiten mindestens eines geeignet festgelegten Schwellwerts σref mittels eines Interpolationsverfahrens sendeseitig ein allmähliches Umschalten auf den neuen Wert des Korrektursignals (KS) erfolgt.11. The method according to any one of claims 3 to 9, characterized in that after the lapse of a delay time .DELTA.t v and / or exceeding or falling below at least one suitably defined threshold value σ re f by means of an interpolation method, a gradual switchover to the new value on the transmission side of the correction signal (KS).
12.Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Regelung nicht erfolgt, wenn die Dauer der Änderung des Datensignals (DS) eine vorgegebene Verzögerungszeitdauer (Δtv) unterschreitet.12. The method according to claim 1, characterized in that a control does not take place if the duration of the change in the data signal (DS) falls below a predetermined delay period (Δt v ).
13.Verfahren nach einem der Ansprüche 1 oder 12, dadurch gekennzeichnet, dass eine Regelung nicht erfolgt, wenn der Betrag der Amplitude, Frequenz bzw. Phase des Datensignals (DS) einen vorgegebenen Amplituden-, Frequenz- bzw. Phasenschwellwert unterschreitet.13.The method according to any one of claims 1 or 12, characterized in that a control does not take place if the amount of the amplitude, frequency or phase of the data signal (DS) falls below a predetermined amplitude, frequency or phase threshold.
14.Verfahren nach einem der Ansprüche 12 oder 13, bei dem es sich bei der Signalkomponente um ein Chrominanzsignal handelt .14.The method according to any one of claims 12 or 13, wherein the signal component is a chrominance signal.
15.Verfahren nach einem der Ansprüche 12 bis 14, bei dem es sich bei der Signalkomponente um ein Luminanz- signal handelt . 15. The method according to any one of claims 12 to 14, wherein the signal component is a luminance signal.
PCT/DE2001/003277 2000-09-15 2001-08-28 Method for the discontinuous regulation and transmission of the luminance and/or chrominance component in digital image signal transmission WO2002023899A2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP01971648A EP1319310A2 (en) 2000-09-15 2001-08-28 Method for the discontinuous regulation and transmission of the luminance and/or chrominance component in digital image signal transmission

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10045777A DE10045777A1 (en) 2000-09-15 2000-09-15 Process for the discontinuous control and transmission of the luminance and / or chrominance components in digital image signal transmission
DE10045777.0 2000-09-15

Publications (2)

Publication Number Publication Date
WO2002023899A2 true WO2002023899A2 (en) 2002-03-21
WO2002023899A3 WO2002023899A3 (en) 2002-12-27

Family

ID=7656393

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2001/003277 WO2002023899A2 (en) 2000-09-15 2001-08-28 Method for the discontinuous regulation and transmission of the luminance and/or chrominance component in digital image signal transmission

Country Status (3)

Country Link
EP (1) EP1319310A2 (en)
DE (1) DE10045777A1 (en)
WO (1) WO2002023899A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113424135A (en) * 2019-01-03 2021-09-21 广东夏野日用电器有限公司 Self-adaptive adjusting method based on environment light distribution field

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4791486A (en) * 1985-02-05 1988-12-13 British Telecommunications Public Limited Company Recursive image encoding/decoding using interpolation within variably sub-divided picture areas
US4932066A (en) * 1985-10-15 1990-06-05 Canon Kabushiki Kaisha Information signal transmission system
US5245679A (en) * 1990-05-11 1993-09-14 Hewlett-Packard Company Data field image compression
US5388182A (en) * 1993-02-16 1995-02-07 Prometheus, Inc. Nonlinear method and apparatus for coding and decoding acoustic signals with data compression and noise suppression using cochlear filters, wavelet analysis, and irregular sampling reconstruction
WO2000042524A1 (en) * 1999-01-13 2000-07-20 Philip Druck Measurement scale for non-uniform data sampling in n dimensions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4791486A (en) * 1985-02-05 1988-12-13 British Telecommunications Public Limited Company Recursive image encoding/decoding using interpolation within variably sub-divided picture areas
US4932066A (en) * 1985-10-15 1990-06-05 Canon Kabushiki Kaisha Information signal transmission system
US5245679A (en) * 1990-05-11 1993-09-14 Hewlett-Packard Company Data field image compression
US5388182A (en) * 1993-02-16 1995-02-07 Prometheus, Inc. Nonlinear method and apparatus for coding and decoding acoustic signals with data compression and noise suppression using cochlear filters, wavelet analysis, and irregular sampling reconstruction
WO2000042524A1 (en) * 1999-01-13 2000-07-20 Philip Druck Measurement scale for non-uniform data sampling in n dimensions

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
BENEDETTO J J ET AL: "A wavelet auditory model and data compression" APPLIED AND COMPUTATIONAL HARMONIC ANALYSIS, DEC. 1993, USA, Bd. 1, Nr. 1, Seiten 3-28, XP001077763 ISSN: 1063-5203 *
D.A. Bell: "Economy of Bandwidth in Television", Journal of the British Institution of Radio Engineers, vol. 13, September 1953, p. 447-470 XP008004909 *
E.C. CHERRY ET AL.: "Some Possibilities for the Compression of Television Signals by Recoding" PROC. I.E.E., PART II, Bd. 100, 1953, Seiten 9-18, XP008004910 *
Ken C. Pohlmann, "Principles of Digital Audio", 3rd Edition, McGraw-Hill, New-York, 1995, ISBN 0-07-050468-7, Chapter 16: "Low-Bit Conversion and Noise Shaping", p. 532-571, 601-603 XP001059193 *
L. Ehrman: "Analysis of Some Redundancy Removal Bandwidth Compression Techniques", Proceedings of the IEEE, vol. 55, No. 3, March 1967, p. 278-287 XP001073862 *
L.D. Davisson: "Data Compression Using Straight Line Interpolation", IEEE Transactions on Information Theory, vol. IT-14, No. 3, May 1968, p. 890-894 XP001073864 *
M.P. Beddoes: "Experiments with a Slope-Feedback Coder for Television Compression", IRE Transactions on Broadcasting, vol. BC-7, No. 2, March 1961, p.12-28 XP001073835 *
MOUNTS F W: "A video encoding system with conditional picture-element replenishment" BELL SYSTEM TECHNICAL JOURNAL, SEPT. 1969, USA, Bd. 48, Nr. 7, Seiten 2545-2554, XP008004929 ISSN: 0005-8580 *
WALACH E ET AL: "A FRACTAL BASED APPROACH TO IMAGE COMPRESSION" INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH & SIGNAL PROCESSING. ICASSP. TOKYO, APRIL 7 - 11, 1986, NEW YORK, IEEE, US, Bd. 1 CONF. 11, 7. April 1986 (1986-04-07), Seiten 529-532, XP000979313 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113424135A (en) * 2019-01-03 2021-09-21 广东夏野日用电器有限公司 Self-adaptive adjusting method based on environment light distribution field
CN113424135B (en) * 2019-01-03 2023-01-10 广东夏野日用电器有限公司 Self-adaptive adjusting method based on environment light distribution field

Also Published As

Publication number Publication date
DE10045777A1 (en) 2002-04-11
WO2002023899A3 (en) 2002-12-27
EP1319310A2 (en) 2003-06-18

Similar Documents

Publication Publication Date Title
CN108205796B (en) Multi-exposure image fusion method and device
US6269217B1 (en) Multi-stage electronic motion image capture and processing system
US6867717B1 (en) Digital encoder and method of encoding high dynamic range video images
JP5605904B2 (en) Imaging device
DE4041312C2 (en) Electronic camera device for delivering an image signal with a wide dynamic range
US7349023B2 (en) Camera-integrated video recording and reproducing apparatus, and record control method thereof
EP3468178A1 (en) Image defogging method and image capture apparatus implementing image defogging
US8229004B2 (en) Image signal processing apparatus with code amount control for inter-frame and intra-frame encoding
JP6694556B2 (en) Multi-filtering surveillance camera and video surveillance system using the same
US6512791B1 (en) Image processing apparatus having means for controlling exposure using an orthogonal transformation coefficient
JPH05191718A (en) Image pickup device
Ward Digital video camerawork
US20040062316A1 (en) Method for pre-suppressing noise of image
WO2009093110A2 (en) Method and apparatus for multi-spectral imaging
JP6826208B2 (en) A surveillance camera with an auto-focusing function of a composite filtering platform that is robust to changes in visibility and a video surveillance system to which it is applied.
US5075778A (en) Backlight correction system
IT8224715A1 (en) AUTOMATIC COLOR CONTROL AND ACCENTUATION SYSTEM OF A VIDEO SIGNAL
Froehlich et al. Content aware quantization: Requantization of high dynamic range baseband signals based on visual masking by noise and texture
DE19652362A1 (en) Method and device for compensating for the luminance defects resulting from the processing of chrominance signals
US6760474B1 (en) Frequency-based video data substitution for increased video compression ratios
WO2002023899A2 (en) Method for the discontinuous regulation and transmission of the luminance and/or chrominance component in digital image signal transmission
US20070198906A1 (en) Sport Action Coding
JPS62253285A (en) Method and apparatus for processing color video signal
JP2004120202A (en) Imaging apparatus, and imaging mode switching method
JP2012134745A (en) Image signal processing device

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
AK Designated states

Kind code of ref document: A3

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A3

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 2001971648

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2001971648

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Ref document number: 2001971648

Country of ref document: EP