DE19700352A1 - Procedure for determining the geometry data of the relevant image section - Google Patents

Procedure for determining the geometry data of the relevant image section

Info

Publication number
DE19700352A1
DE19700352A1 DE1997100352 DE19700352A DE19700352A1 DE 19700352 A1 DE19700352 A1 DE 19700352A1 DE 1997100352 DE1997100352 DE 1997100352 DE 19700352 A DE19700352 A DE 19700352A DE 19700352 A1 DE19700352 A1 DE 19700352A1
Authority
DE
Germany
Prior art keywords
image
brightness
relevant
scanner
relevant image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE1997100352
Other languages
German (de)
Inventor
Uwe-Jens Krabbenhoeft
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heidelberger Druckmaschinen AG
Original Assignee
Heidelberger Druckmaschinen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heidelberger Druckmaschinen AG filed Critical Heidelberger Druckmaschinen AG
Priority to DE1997100352 priority Critical patent/DE19700352A1/en
Priority to EP97953641A priority patent/EP0950311A1/en
Priority to JP10530445A priority patent/JP2000508460A/en
Priority to PCT/DE1997/002947 priority patent/WO1998031135A1/en
Publication of DE19700352A1 publication Critical patent/DE19700352A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking

Abstract

The present invention relates to a method for automatically determining the geometrical data - arrangement, measurements and relative positions - of an image document segment placed on the table or drum of a scanner. The scanning data related to the image document are also used to determine and analyse the luminosity characteristics. Mainly the horizontal and vertical edges are emphasized by a digital filtering process. A Hough transformation of the straight lines adapted to the contours of the image document is made to determine, based on said straight lines, the geometrical data of the segment concerned of the relevant image document.

Description

Die Erfindung bezieht sich auf das Gebiet der elektronischen Reproduktions­ technik und betrifft ein Verfahren zur automatischen Bestimmung der Geome­ triedaten, wie Position, Abmessungen und Winkellage, des relevanten Bildaus­ schnitts einer abzutastenden Bildvorlage auf einem Scannertablett bzw. einer Scannertrommel.The invention relates to the field of electronic reproduction technology and relates to a method for the automatic determination of the geome trial data, such as position, dimensions and angular position, of the relevant image section of an image to be scanned on a scanner tablet or Scanner drum.

In der Reproduktionstechnik werden Druckvorlagen für Druckseiten erzeugt, die alle zu druckenden Elemente wie Texte, Grafiken und Bilder enthalten. Im Fall der elektronischen Herstellung der Druckvorlagen liegen diese Elemente in Form von digitalen Daten vor. Für ein Bild werden die Daten z. B. erzeugt, in­ dem das Bild in einem Scanner punkt- und zeilenweise abgetastet wird, jeder Bildpunkt in Farbkomponenten zerlegt wird und die Farbwerte dieser Kompo­ nenten digitalisiert werden. Üblicherweise werden Bilder in einem Scanner in die Farbkomponenten Rot, Grün und Blau (R, G, B) zerlegt. Für den Vier­ farbdruck werden diese Komponenten dann weiter in die Druckfarben Cyan, Magenta, Gelb und Schwarz (C, M, Y, K) transformiert. Für Schwarz-Weiß-Bilder erzeugt der Scanner entweder gleich nur eine Komponente mit Grauwer­ ten oder die zunächst abgetasteten RGB-Komponenten werden später in die Druckfarbe Schwarz umgerechnet.In reproduction technology, print templates are created for printed pages that contain all elements to be printed such as texts, graphics and images. In the case these elements are in the electronic production of the print templates Form of digital data. For an image, the data is e.g. B. generated in where the image is scanned point by point and line by line in a scanner, everyone Pixel is broken down into color components and the color values of this compo be digitized. Usually, images are scanned in a scanner the color components red, green and blue (R, G, B) decomposed. For the four These components are then color printed further into the cyan printing inks, Magenta, yellow and black (C, M, Y, K) transformed. For black and white pictures the scanner either creates just one component with Grauwer or the initially scanned RGB components are later added to the Converted black printing ink.

Der Scanner kann ein Flachbettgerät sein, in dem die abzutastenden Bildvorla­ gen auf einem Scannertablett montiert werden. Die Bildvorlagen können trans­ parent sein (Diapositive oder Farbnegative) oder reflektierend (Aufsichtsbilder). The scanner can be a flatbed device in which the image template to be scanned be mounted on a scanner tray. The image templates can be trans be parent (slides or color negatives) or reflective (top pictures).  

Das Scannertablett wird beleuchtet, und das durchscheinende bzw. reflektierte Licht einer Scanlinie wird durch Farbfilter in die Farbkomponenten zerlegt. Das Licht der Farbkomponenten wird dann z. B. mittels einer CCD-Zeile weiter in diskrete Bildpunkte zerlegt und in elektrische Signale umgewandelt, die an­ schließend digitalisiert werden. Alternativ kann auch ein Trommelscanner ver­ wendet werden, in dem die Bildvorlagen auf eine transparente Scannertrommel montiert werden. Die Scannertrommel wird je nach Art der Bildvorlagen (transparent oder reflektierend) punktförmig von innen oder außen beleuchtet, und das durchscheinende bzw. reflektierte Licht der Farbkomponenten wird in einem Abtastkopf auf Lichtsensoren fokussiert und in elektrische Signale um­ gewandelt. Dabei rotiert die Scannertrommel, während die Beleuchtungseinrich­ tung und der Abtastkopf entlang der Achse der Scannertrommel bewegt wer­ den, so daß die Oberfläche der Scannertrommel punkt- und zeilenweise abge­ tastet wird.The scanner tray is illuminated and the translucent or reflected Light from a scan line is broken down into color components by color filters. The Light of the color components is then z. B. further by means of a CCD line discrete pixels are broken down and converted into electrical signals that are sent to finally digitized. Alternatively, a drum scanner can also be used be applied by placing the image on a transparent scanner drum to be assembled. The scanner drum will vary depending on the type of artwork (transparent or reflective) illuminated in spots from inside or outside, and the translucent or reflected light of the color components is in a scanning head focused on light sensors and converted into electrical signals changed. The scanner drum rotates while the lighting device tion and the scanning head along the axis of the scanner drum who moves the so that the surface of the scanner drum abge point and line gropes.

Um das Abtasten der Bildvorlagen rationeller durchzuführen, werden mehrere Bildvorlagen auf das Scannertablett bzw. die Scannertrommel montiert, die der Scanner dann automatisch nacheinander abtasten, digitalisieren und speichern soll. Dazu müssen in einem Arbeitsvorbereitungsprozeß die Positionen der Bil­ der auf dem Scannertablett bzw. auf der Scannertrommel, ihre Abmessungen und ihre Winkellage erfaßt und eingegeben werden. Damit sind die Ausschnitte der zur Verfügung stehenden Scanfläche definiert, die vom Scanner abgetastet und den einzelnen Bildern zugeordnet werden sollen.To make the scanning of the image templates more efficient, several are Images are mounted on the scanner tray or the scanner drum that the Then scan, digitize and save the scanner automatically one after the other should. To do this, the positions of the bil the dimensions on the scanner tray or on the scanner drum and their angular position are recorded and entered. With that are the cutouts of the available scan area that is scanned by the scanner and should be assigned to the individual images.

In einer parallel laufenden, gleichzeitig eingereichten Patentanmeldung der Anmelderin (internes Aktenzeichen 96/958, "Verfahren zur Bestimmung der Geometriedaten von Abtastvorlagen") wird beschrieben, wie die Geometrieda­ ten der Abtastvorlagen aus einer Übersichtsabtastung der gesamten Scanflä­ che in grober Auflösung automatisch ermittelt werden. Die so ermittelten Geo­ metriedaten beschreiben für jede Bildvorlage ein Abtastrechteck, das die ganze Bildvorlage einschließlich der Ränder umfaßt. Für die Bildabtastung in feiner Auflösung, d. h. zur Erzeugung der Bilddaten, die für die Herstellung der Druck­ vorlagen gebraucht werden, wird jedoch der Bildausschnitt ohne die Ränder benötigt, der nur den relevanten Bildinhalt umfaßt.In a parallel patent application filed by Applicant (internal file number 96/958, "Procedure for determining the Geometry data from sample templates ") describes how the geometry d th of the scan templates from an overview scan of the entire scan area surface can be automatically determined in rough resolution. The geo determined in this way For each image template, metric data describe a scanning rectangle that covers the whole Image template including edges included. For fine image scanning Dissolution, d. H. to generate the image data necessary for the production of the print  templates are used, however, the image section without the edges needed, which only includes the relevant image content.

Nach dem Stand der Technik ist das Eingeben der Geometriedaten für den re­ levanten Bildausschnitt zeitaufwendig. Oft wird dazu eine Vorwegabtastung der Bildvorlage (Prescan) in geringerer Auflösung durchgeführt. Die Scandaten der Vorwegabtastung werden auf einem Monitor dargestellt, und mit einem Cursor können dann manuell auf dem Bildschirm die Eckpunkte des relevanten Bild­ ausschnitts markiert werden. Eine Vorwegabtastung dient außerdem dazu, in­ nerhalb des relevanten Bildausschnitts die Scandaten der Vorwegabtastung in bezug auf Gradation, Kontrast, Farben usw. zu analysieren, um daraus Einstel­ lungsparameter des Scanners für die endgültige Abtastung in feiner Auflösung herzuleiten. Nach einer anderen Methode werden die Bilder auf eine Montage­ folie montiert, die auf ein Digitalisiertablett gelegt wird. Dort werden dann die Koordinaten der relevanten Bildausschnitte erfaßt. Anschließend wird die Mon­ tagefolie auf das Scannertablett bzw. die Scannertrommel aufgebracht. Es gibt hierfür auch die Lösung, daß die Einrichtung zur Erfassung der Koordinaten in das Scannertablett integriert ist. In jedem Fall ist die Koordinatenerfassung mit manueller Arbeit und Zeitaufwand verbunden.According to the prior art, the input of the geometry data for the right levante image section time consuming. To do this, an advance scan of the Image presentation (prescan) carried out in lower resolution. The scan data of the Preliminary scans are displayed on a monitor and with a cursor can then manually on the screen the corner points of the relevant image be highlighted. An advance scan also serves to the scan data of the advance scan in with regard to gradation, contrast, colors, etc. Scanning parameters for the final scanning in fine resolution to derive. According to another method, the pictures are assembled on a montage foil mounted, which is placed on a digitizing tablet. There will be the Coordinates of the relevant image sections recorded. Then the Mon Tag film applied to the scanner tray or the scanner drum. There are for this also the solution that the device for recording the coordinates in the scanner tablet is integrated. In any case, the coordinate acquisition is included manual work and time involved.

Obwohl man sich bemüht, die Bilder so gerade wie möglich auf die Scanfläche zu montieren, ist die Erfassung der Winkellage des relevanten Bildausschnitts doch sinnvoll. Da die exakte Ausrichtung der Bilder bei der Montage arbeits­ aufwendig und zeitraubend ist, kann es wirtschaftlicher sein, die Bilder nur an­ nähernd gerade zu montieren und die genaue Ausrichtung später auszuführen. Manche Flachbettscanner haben eine Vorrichtung, mit der das Scannertablett um einen beliebigen vorgegebenen Winkel gedreht werden kann. Damit kann die schiefe Montage des Bildes auf der Scanfläche beim Scannen korrigiert werden. Wenn eine solche Drehvorrichtung nicht vorhanden ist, können die ge­ scannten Bilddaten später in einem Rechenprozeß gedreht werden, um die schiefe Montage zu korrigieren.Although efforts are made to keep the images as straight as possible on the scan surface to be installed is to record the angular position of the relevant image section makes sense. Because the exact alignment of the pictures works during assembly is complex and time-consuming, it can be more economical to just display the pictures to be installed approximately straight and to carry out the exact alignment later. Some flatbed scanners have a device with which the scanner tray can be rotated through any predetermined angle. So that can corrected the crooked mounting of the image on the scanning surface when scanning will. If such a rotating device is not available, the ge scanned image data are later rotated in a computing process to the correct crooked assembly.

Es ist die Aufgabe der vorliegenden Erfindung, die zuvor beschriebene manuel­ le Erfassung der Geometriedaten zu vermeiden und ein Verfahren zur automa­ tischen Bestimmung von Position, Abmessungen und Winkellage des relevan­ ten Bildausschnitts einer Bildvorlage anzugeben. Dadurch wird die Bedienung des Scanners vereinfacht und eine Automatisierung der Bildabtastung ermög­ licht. Diese Aufgabe wird durch die Merkmale des Anspruchs 1 und der Un­ teransprüche 2 bis 9 gelöst.It is the object of the present invention, the previously described manual to avoid the acquisition of the geometry data and a procedure for automa tical determination of the position, dimensions and angular position of the relevant to specify the image section of an image template. This will make the operation of the scanner is simplified and the image scanning can be automated light. This object is achieved by the features of claim 1 and the Un claims 2 to 9 solved.

Die Erfindung wird nachfolgend anhand der Fig. 1 bis 5 näher beschrieben. Es zeigen:The invention is described below with reference to FIGS. 1 to 5. Show it:

Fig. 1 eine Bildvorlage einschließlich des Bildrandes, Fig. 1 is an original image including the edge of the picture,

Fig. 2 die Bestimmung von Weißpunkt und Schwarzpunkt im Histogramm, Fig. 2 shows the determination of the white point and black point in the histogram,

Fig. 3 eine Verstärkungsfunktion für die Helligkeitswerte, Fig. 3 is a gain function of the brightness values,

Fig. 4 Kantenfilter für horizontale und vertikale Kanten, und Fig. 4 edge filter for horizontal and vertical edges, and

Fig. 5 die Suche nach einer angepaßten Geraden mittels der Hough-Transformation. Fig. 5, the search for a matched straight line by means of the Hough transform.

Fig. 1 zeigt eine Bildvorlage (1) einschließlich des Bildrandes (2). Die Bildvorla­ gen sind im allgemeinen farbige oder schwarz-weiße Diapositive, Negative oder Aufsichtsbilder. In der Fig. 1 ist als Beispiel ein Negativ als Bildvorlage darge­ stellt, das aus Gründen der einfachen Vervielfältigung als Binärbild mit nur schwarzen und weißen Bildpunkten angedeutet ist. Der relevante Bildausschnitt (3) der Bildvorlage (1) ist der Teil der Bildvorlage, der Bildinformation enthält. Das erfindungsgemäße Verfahren ermittelt automatisch den Umriß (4) des rele­ vanten Bildausschnitts, d. h. die Trennlinie zwischen Bildrand (2) und relevan­ tem Bildausschnitt (3). Fig. 1 shows an image template ( 1 ) including the image edge ( 2 ). The picture templates are generally colored or black and white slides, negatives or top pictures. In Fig. 1, as an example, a negative is Darge provides, which is indicated for reasons of simple duplication as a binary image with only black and white pixels. The relevant image section ( 3 ) of the image template ( 1 ) is the part of the image template that contains image information. The method according to the invention automatically determines the outline ( 4 ) of the relevant image detail, ie the dividing line between the image edge ( 2 ) and relevant image detail ( 3 ).

In einem ersten Verarbeitungsschritt wird eine Vorwegabtastung (Prescan) der Bildvorlage (1) in reduzierter Auflösung durchgeführt, z. B. mit 60 Pixel/cm. Aus den gespeicherten RGB-Scandaten dieser Abtastung wird erfindungsgemäß ein Bildsignal errechnet, das möglichst deutlich den Umriß (4) des relevanten Bild­ ausschnitts wiedergibt. Vorzugsweise ist das eine Helligkeitskomponente, z. B. die L-Komponente, die bei der Transformation der RGB-Daten in LAB-Daten des CIELAB-Farbraums gewonnen wird (CIE = Commission Internationale d'Eclairage). Eine Helligkeitskomponente kann aber auch durch eine gewichtete Addition der RGB-Daten gewonnen werden. Ersatzweise kann auch eine ein­ zelne Farbkomponente, z. B. der grüne Anteil der RGB-Daten, als Helligkeits­ komponente verwendet werden.In a first processing step, a prescan of the original image ( 1 ) is carried out in reduced resolution, e.g. B. with 60 pixels / cm. According to the invention, an image signal is calculated from the stored RGB scan data of this scanning, which image reproduces the outline ( 4 ) of the relevant image section as clearly as possible. Preferably, this is a brightness component, e.g. B. the L component, which is obtained by transforming the RGB data into LAB data of the CIELAB color space (CIE = Commission Internationale d'Eclairage). A brightness component can also be obtained by weighted addition of the RGB data. Alternatively, an individual color component, e.g. B. the green portion of the RGB data can be used as a brightness component.

Im zweiten Verarbeitungsschritt der Erfindung wird ein Weißpunkt Lw und ein Schwarzpunkt Ls aus den Werten der Helligkeitskomponente bestimmt. Vor­ zugsweise werden dazu die Häufigkeiten aller Werte im Helligkeitsbild ermittelt und in einem kumulativen Histogramm aufgetragen. Als Weißpunkt Lw wird dann z. B. der Helligkeitswert definiert, bei dem im Histogramm 5% aller Hellig­ keitswerte erreicht sind. Als Schwarzpunkt Ls wird entsprechend dazu der Hel­ ligkeitswert definiert, bei dem im Histogramm 95% aller Helligkeitswerte erreicht sind. Bei diesen Prozentwerten erhält man erfahrungsgemäß Weiß- und Schwarzpunkte, die für das Bild repräsentativ sind. Aus der Differenz zwischen Schwarzpunkt und Weißpunkt ergibt sich der Dynamikumfang D des Hellig­ keitsbildes zu:
In the second processing step of the invention, a white point Lw and a black point Ls are determined from the values of the brightness component. For this purpose, the frequencies of all values in the brightness image are preferably determined and plotted in a cumulative histogram. The white point Lw is then z. B. defines the brightness value at which 5% of all brightness values are reached in the histogram. Accordingly, the brightness value is defined as black point Ls, at which 95% of all brightness values are reached in the histogram. Experience has shown that these percentage values give white and black points that are representative of the image. The dynamic range D of the brightness image results from the difference between the black point and white point:

D = Ls - Lw (1)D = Ls - Lw (1)

Fig. 2 zeigt das kumulative Histogramm mit dem Weißpunkt Lw und dem Schwarzpunkt Ls. Für die vorliegende Erfindung ist nicht wesentlich, bei wel­ chen Prozentwerten im Histogramm der Weißpunkt und der Schwarzpunkt fest­ gelegt werden. Es können beliebige Prozentwerte in der Nähe von 0% bzw. 100% gewählt werden. Grundsätzlich können auch die Helligkeitswerte bei 0% und bei 100%, d. h. die absolut hellsten und dunkelsten Werte im Helligkeitsbild als Weißpunkt und Schwarzpunkt gewählt werden. Dann besteht jedoch die Möglichkeit, daß der Weißpunkt und Schwarzpunkt nicht für das Bild repräsen­ tativ sind, wenn die extremen Helligkeitswerte bei 0% und 100% nur sehr selten im Bild vorkommen. Fig. 2 shows the cumulative histogram with the white point Lw and the black point Ls. It is not essential for the present invention at which percentage values in the histogram the white point and the black point are defined. Any percentage values close to 0% or 100% can be selected. In principle, the brightness values at 0% and at 100%, ie the absolutely brightest and darkest values in the brightness image, can also be selected as white point and black point. Then there is the possibility that the white point and black point are not representative of the image if the extreme brightness values at 0% and 100% are very rare in the image.

Im nächsten Verarbeitungsschritt der Erfindung werden die Helligkeitswerte L durch eine nichtlineare Funktion g{L} in der Nähe des Helligkeitswertes des Bildrandes (2) verstärkt, um in den Helligkeitswerten den Umriß (4) des relevan­ ten Bildausschnitts besonders hervorzuheben. Im Beispiel von Fig. 1 ist die Bildvorlage (1) ein Negativ, d. h. der Bildrand (2) ist schwarz. In diesem Fall werden also die Helligkeitswerte L im schwarzen Bereich verstärkt. Bei einer Aufsichtsvorlage, deren Rand im allgemeinen weiß ist, werden die Helligkeits­ werte L entsprechend im weißen Bereich verstärkt. Die verstärkten Helligkeits­ werte Lg ergeben sich zu:
In the next processing step of the invention, the brightness values L are amplified by a non-linear function g {L} in the vicinity of the brightness value of the image edge ( 2 ) in order to emphasize the outline ( 4 ) of the relevant image section in the brightness values. In the example of FIG. 1, the image template ( 1 ) is a negative, ie the image edge ( 2 ) is black. In this case, the brightness values L are increased in the black area. In the case of a supervisory template, the edge of which is generally white, the brightness values L are correspondingly increased in the white area. The increased brightness values Lg result in:

Lg = g{L} (2)Lg = g {L} (2)

Fig. 3 zeigt ein Beispiel für die Verstärkungsfunktion g{L}, wobei die Hellig­ keitswerte L im schwarzen Bereich verstärkt werden. Unter der Voraussetzung, daß die Helligkeitswerte L zum Beispiel mit 8 bit Genauigkeit dargestellt wer­ den, ergeben sich Werte für L zwischen 0 (schwarz) und 255 (weiß). Der Hel­ ligkeitswert 0 wird um den Faktor 5 verstärkt, die Verstärkung nimmt bis zum Helligkeitswert 15 linear ab auf den Faktor 1 und bleibt dann für die restlichen Helligkeitswerte bis 255 auf dem Faktor 1. Das heißt, nur die Helligkeitswerte im Bereich 0 . . . 15 werden verstärkt, die übrigen Helligkeitswerte bleiben unver­ ändert. Wenn der Bildrand weiß ist, wird z. B. eine hierzu spiegelbildliche Funk­ tion g{L} verwendet, die die Helligkeitswerte L im Bereich 240 . . . 255 verstärkt und die übrigen Helligkeitswerte unverändert läßt. Fig. 3 shows an example of the gain function g {L}, wherein the brightness values L are amplified in the black area. Assuming that the brightness values L are displayed with 8-bit accuracy, for example, values for L result between 0 (black) and 255 (white). The brightness value 0 is increased by a factor of 5, the gain decreases linearly to a factor of 1 up to the brightness value 15 and then remains on the factor 1 for the remaining brightness values up to 255. That means that only the brightness values in the range 0. . . 15 are increased, the other brightness values remain unchanged. If the edge of the picture is white, e.g. B. uses a mirror-image function g {L} for this purpose, which has the brightness values L in the region 240. . . 255 intensified and leaves the other brightness values unchanged.

Im nächsten Verarbeitungsschritt der Erfindung wird die Helligkeitskomponente einer digitalen Kantenfilterung unterworfen. Vorzugsweise werden Filter ver­ wendet, die an näherungsweise horizontalen und vertikalen Kanten hohe Aus­ gangswerte erzeugen und dadurch solche Kanten hervorheben. In the next processing step of the invention, the brightness component subjected to digital edge filtering. Filters are preferably used turns the high off on approximately horizontal and vertical edges Generate initial values and thereby highlight such edges.  

Fig. 4 zeigt als Beispiel jeweils ein einfaches Filter für horizontale Kanten (5) und für vertikale Kanten (6). Das horizontale Filter erstreckt sich über 2×5 Pi­ xel. Der eingekreiste Punkt P bezeichnet die Position des aktuellen Pixels. Die Werte hij an jeder Position des Filterfensters sind die Filterkoeffizienten. Die Filterung wird durchgeführt, indem der Punkt P des Filterfensters über jedes Pi­ xel des verstärkten Helligkeitsbildes Lg gelegt wird und die unter den jeweiligen Fensterpositionen liegenden Pixelwerte Lgij mit den Koeffizienten hij multipliziert und aufaddiert werden. Das Ergebnis wird noch auf den Dynamikumfang D normalisiert, indem es mit 1/(k1×D) multipliziert wird, wobei k1 eine Konstan­ te ist. Der Filterwert Fh jedes Pixels ergibt sich also zu:
Fig. 4 shows an example of a simple filter for horizontal edges ( 5 ) and for vertical edges ( 6 ). The horizontal filter extends over 2 × 5 pixels. The circled point P denotes the position of the current pixel. The values h ij at each position of the filter window are the filter coefficients. The filtering is carried out by placing the point P of the filter window over each pixel of the amplified brightness image Lg and multiplying and adding the pixel values Lg ij below the respective window positions by the coefficients h ij . The result is normalized to the dynamic range D by multiplying it by 1 / (k1 × D), where k1 is a constant. The filter value F h of each pixel is therefore:

Fh = [Σ(hij × Lgij)]/(k1 × D). (3)F h = [Σ (h ij × Lg ij )] / (k1 × D). (3)

Für das vertikale Filter (6), das eine um 90° gedrehte Version des horizontalen Filters (5) ist, ergibt sich der Filterwert Fv entsprechend zu:
For the vertical filter ( 6 ), which is a version of the horizontal filter ( 5 ) rotated by 90 °, the filter value F v results accordingly:

Fv = [Σ(vij × Lgij)]/(k1 × D). (4)F v = [Σ (v ij × Lg ij )] / (k1 × D). (4)

Die Filterwerte Fh und Fv der horizontalen und vertikalen Kantenfilterung wer­ den erfindungsgemäß anschließend zu einem resultierenden Filterwert F zu­ sammengefaßt. Vorzugsweise werden dazu für jedes Pixel die Beträge von Fh und Fv verglichen, und der jeweils größere Wert wird als resultierender Filter­ wert F genommen. Er ergibt sich dann zu:
The filter values F h and F v of the horizontal and vertical edge filtering who according to the invention are then combined to form a resulting filter value F. For this purpose, the amounts of F h and F v are preferably compared for each pixel, and the respectively larger value is taken as the resulting filter value F. It then results in:

F = Vzmax × max (|Fh|, |Fv|), (5)
F = Vz max × max (| F h |, | F v |), (5)

wobei Vzmax das Vorzeichen des ausgewählten Maximalwertes ist.where Vz max is the sign of the selected maximum value.

Für die vorliegende Erfindung sind die Form und Koeffizienten der in Fig. 4 ge­ zeigten Kantenfilter nicht wesentlich. Es können auch Filterfenster mit mehr oder weniger als 2×5 Pixel und mit anderen Koeffizienten verwendet werden. Wichtig ist nur, daß durch die Filterung vorwiegend horizontale und vertikale Kanten hervorgehoben werden. Ebenso können auch andere zusammenfas­ sende Funktionen als die nach Gleichung (5) verwendet werden, z. B. die Sum­ me der Betragswerte |Fh| und |Fv| versehen mit dem Vorzeichen des größeren Wertes. Für die Erfindung ist die genaue Form der Verstärkungsfunktion g{L} ebenfalls nicht wesentlich. Wichtig ist nur, daß die Helligkeitswerte L im Bereich der Farbe des Bildrandes durch die Funktion g{L} verstärkt werden.The shape and coefficients of the edge filters shown in FIG. 4 are not essential for the present invention. Filter windows with more or less than 2 × 5 pixels and with other coefficients can also be used. It is only important that the filtering mainly highlights horizontal and vertical edges. Likewise, other summarizing sending functions than that according to equation (5) can be used, e.g. B. the sum of the absolute values | F h | and | F v | provided with the sign of the larger value. The exact form of the gain function g {L} is also not essential to the invention. It is only important that the brightness values L are increased in the area of the color of the image edge by the function g {L}.

Fig. 5 zeigt den nächsten Verarbeitungsschritt der Erfindung, in dem für jede der vier Seiten des relevanten Bildausschnitts eine optimal angepaßte Gerade ermittelt wird. Hierzu wird erfindungsgemäß ein Verfahren eingesetzt, das in der Bildverarbeitungstechnik als (analoge) Hough-Transformation bekannt ist (H. Bässmann, P. W. Besslich: Bildverarbeitung Ad Oculos, S. 101-121, Springer Verlag 1993). Zunächst wird das umschreibende Rechteck (7) des gefilterten Bildes F mit den Eckpunkten A, B, C, D gebildet, dessen Seiten parallel zur Haupt- bzw. Nebenabtastrichtung sind. Dann werden für jede Seite des relevan­ ten Bildausschnitts in einem bestimmten Suchbereich für Geraden mit verschie­ denen Positionen und unter verschiedenen Winkeln die Filterwerte F entlang der Geraden aufsummiert. Die Gerade, für die die Summe einen positiven bzw. negativen Maximalwert erreicht, wird als optimal angepaßte Gerade für diese Seite des relevanten Bildausschnitts ausgewählt. Das Vorzeichen des Maxi­ malwertes muß hier berücksichtigt werden, da die Filterwerte F positiv und ne­ gativ sein können. Für den Übergang von Schwarz zu "Nicht-Schwarz" sind die Filterwerte F negativ, für den Übergang von "Nicht-Schwarz" zu Schwarz sind sie positiv. Daher wird in dem hier betrachteten Beispiel zur Ermittlung der lin­ ken Seite des relevanten Bildausschnitts nach einer Geraden mit einem negati­ ven Maximalwert der oben beschriebenen Summe gesucht. Für die rechte Seite des relevanten Bildausschnitts muß entsprechend nach einer Geraden mit ei­ nem positiven Maximalwert dieser Summe gesucht werden. Fig. 5 shows the next processing step of the invention is precisely determined in an optimally matched for each of the four sides of the relevant image part. For this purpose, according to the invention, a method is used which is known in image processing technology as an (analog) Hough transformation (H. Bässmann, PW Besslich: Bildverarbeitung Ad Oculos, pp. 101-121, Springer Verlag 1993). First, the circumscribing rectangle ( 7 ) of the filtered image F with the corner points A, B, C, D is formed, the sides of which are parallel to the main or secondary scanning direction. Then, for each side of the relevant image section in a specific search area for straight lines with different positions and at different angles, the filter values F are added up along the straight line. The straight line for which the sum reaches a positive or negative maximum value is selected as an optimally adapted straight line for this side of the relevant image section. The sign of the maximum value must be taken into account here, since the filter values F can be positive and negative. The filter values F are negative for the transition from black to "non-black", and they are positive for the transition from "non-black" to black. Therefore, in the example considered here to determine the left side of the relevant image section, a straight line with a negative maximum value of the sum described above is sought. For the right side of the relevant image section, a straight line with a positive maximum value of this sum must be searched for accordingly.

Fig. 5 zeigt den Suchbereich für die linke Seite des relevanten Bildausschnitts. Entlang einer waagerechten Strecke wird im Abstand s vom Punkt A ein Punkt G festgelegt. Durch den Punkt G werden unter verschiedenen Winkeln α Gera­ den (8) gelegt. Für jede der Geraden wird die Summe der Filterwerte F entlang der Geraden gebildet. Diese Zahl wird in eine α,s-Matrix (9) unter der durch α und s definierten Spalte und Zeile eingetragen. Jede Zelle der Matrix entspricht einer der geprüften Geraden. Durch Variation von s und α wird in dieser Weise eine Vielzahl von Geraden untersucht. Da in diesem Fall nach einer nähe­ rungsweise senkrechten Geraden gesucht wird, kann der Parameter s auf einen Streifen und α auf einen kleinen Winkelbereich eingeschränkt werden, um die benötigte Verarbeitungszeit zu verringern.
Fig. 5 shows the search area for the left side of the relevant image part. A point G is defined at a distance s from point A along a horizontal line. By point G are placed at different angles α Gera ( 8 ). The sum of the filter values F along the straight line is formed for each of the straight lines. This number is entered in an α, s matrix ( 9 ) under the column and row defined by α and s. Each cell in the matrix corresponds to one of the straight lines tested. By varying s and α, a large number of straight lines are examined in this way. In this case, since an approximately vertical straight line is sought, the parameter s can be restricted to a strip and α to a small angular range in order to reduce the processing time required.

-smax ≦ s ≦ + smax
max ≦ α ≦ + αmax. (6)
-s max ≦ s ≦ + s max
max ≦ α ≦ + α max . (6)

Für die Begrenzungen wird beispielsweise smax=10 mm und αmax=15° ge­ wählt.For the limits, for example, s max = 10 mm and α max = 15 ° is selected.

Nach der Suchoperation wird festgestellt, welche Zelle der α,s-Matrix (9) den größten positiven bzw. negativen Zahlenwert enthält. Wie oben erläutert, wird für die linke Seite des relevanten Bildausschnitts und für den Fall eines schwar­ zen Bildrandes nach einem negativen Maximalwert gesucht. Die zugehörigen Werte von s und α definieren eine Gerade, die die entsprechende Seite des relevanten Bildausschnitts am genauesten wiedergibt. Ausgehend von den Eckpunkten B, C, D des umschreibenden Rechtecks (7) geschieht die Suche und Bestimmung der optimal angepaßten Geraden für die restlichen drei Seiten des relevanten Bildausschnitts in entsprechender Weise.After the search operation, it is determined which cell of the α, s matrix ( 9 ) contains the largest positive or negative numerical value. As explained above, a search is made for a negative maximum value for the left side of the relevant image section and for the case of a black image border. The associated values of s and α define a straight line that most accurately reproduces the corresponding side of the relevant image section. Starting from the corner points B, C, D of the circumscribing rectangle ( 7 ), the search and determination of the optimally adapted straight line for the remaining three sides of the relevant image section takes place in a corresponding manner.

Die Strategie für die Suche nach der optimal angepaßten Geraden mit Hilfe der Hough-Transformation kann natürlich in vielfältiger Weise variiert werden. Der Punkt G, durch den die Suchgeraden führen, muß nicht wie in Fig. 5 gezeigt am oberen Rand des umschreibenden Rechtecks (7) liegen. Er kann z. B. auch am unteren Rand liegen oder auf halber Höhe des Rechtecks (7). Wichtig ist nur, daß in einem definierten Suchbereich um die anzupassende Seite des relevan­ ten Bildausschnitts herum systematisch alle bezüglich Position und Winkel möglichen Geraden nach dem Prinzip der Hough-Transformation untersucht werden. Die Suchstrategie kann auch noch im Hinblick auf die Verarbeitungs­ zeit optimiert werden, wenn z. B. die Parameter s und α zunächst in groben Schritten variiert werden und dann um das positive bzw. negative Maximum der Hough-Transformierten herum die Untersuchung mit feineren Schritten fortge­ setzt wird.The strategy for the search for the optimally adapted straight line using the Hough transformation can of course be varied in many ways. The point G through which the search lines lead does not have to lie at the upper edge of the circumscribing rectangle ( 7 ), as shown in FIG. 5. He can e.g. B. also lie at the bottom or halfway up the rectangle ( 7 ). It is only important that in a defined search area around the side of the relevant image section to be adjusted systematically all straight lines with regard to position and angle are examined according to the principle of the Hough transformation. The search strategy can also be optimized in terms of processing time if, for. B. the parameters s and α are first varied in coarse steps and then around the positive or negative maximum of the Hough transforms the investigation is continued with finer steps.

Die gefundenen angepaßten Geraden für die vier Seiten des relevanten Bild­ ausschnitts ergeben im allgemeinen kein Viereck mit rechten Winkeln. Deshalb wird im letzten Verarbeitungsschritt der Erfindung aus den angepaßten Gera­ den ein Bildausschnitt-Rechteck gebildet. Das kann in vielfältiger Weise ge­ schehen. Eine bevorzugte Methode ist:
The found straight lines found for the four sides of the relevant image section generally do not result in a square with right angles. Therefore, in the last processing step of the invention from the adapted Gera an image section rectangle is formed. This can happen in a variety of ways. A preferred method is:

  • a) Mittelung der Winkel aller vier Geraden (wobei für zwei Geraden 90° ad­ diert bzw. subtrahiert werden). Dabei werden die Winkel mit dem Wert der Hough-Transformation gewichtet, da ein Winkel um so "sicherer" ist, je größer der (positive bzw. negative) Wert der Hough-Transformierten für die entsprechende Gerade ist.a) Averaging the angles of all four straight lines (whereby 90 ° ad dated or subtracted). The angles are the value of Hough transformation weighted because an angle is the "safer", ever greater the (positive or negative) value of the Hough transforms for the corresponding straight line is.
  • b) Prüfung, ob ein Winkel vom Mittelwert um mehr als einen bestimmten Be­ trag abweicht. Wenn ja, wird der Mittelwert aus den verbleibenden drei Ge­ raden gebildet.b) Check whether an angle from the mean value by more than a certain Be wear differs. If so, the average of the remaining three Ge straight formed.
  • c) Bestimmung des Bildausschnitt-Rechtecks mit den vier Geraden unter Ver­ wendung des mittleren Winkels (für zwei Geraden um 90° modifiziert).c) Determination of the image section rectangle with the four straight lines under Ver turning the middle angle (modified by 90 ° for two straight lines).

Nach der Bestimmung des relevanten Bildausschnitts werden die gefundenen Koordinaten und der Winkel zur Einstellung des Scanners für den weiteren Ab­ lauf des Scanvorgangs verwendet z. B. zur Ermittlung von Einstellungsparame­ tern für Gradation, Farbkorrektur usw. aus den relevanten Bilddaten der Vor­ wegabtastung (Prescan) und später zur hochaufgelösten Abtastung und zur Drehwinkelkorrektur der gescannten Bilddaten.After determining the relevant image section, the ones found are Coordinates and the angle for setting the scanner for the further Ab used during the scanning process. B. to determine setting parameters ters for gradation, color correction etc. from the relevant image data of the previous path scanning (prescan) and later for high-resolution scanning and for Angle correction of the scanned image data.

Claims (9)

1. Verfahren zur Erfassung der Geometriedaten, wie Position, Abmessungen und Winkellage, des relevanten Bildausschnitts einer Bildvorlage, dadurch gekennzeichnet, daß die Geometriedaten automatisch durch Abtastung der Bildvorlage und Analyse der Scandaten ermittelt werden.1. A method for capturing the geometry data, such as position, dimensions and angular position, of the relevant image section of an image template, characterized in that the geometry data are determined automatically by scanning the image template and analyzing the scan data. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß aus den Scan­ daten der Bildvorlage ein Helligkeitsbild gewonnen wird.2. The method according to claim 1, characterized in that from the scan a brightness image is obtained from the image template. 3. Verfahren nach Anspruch 1 und 2, dadurch gekennzeichnet, daß das Hel­ ligkeitsbild im Bereich des Helligkeitswertes des Bildrandes verstärkt wird.3. The method according to claim 1 and 2, characterized in that the hel brightness image in the area of the brightness value of the image edge is enhanced. 4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß das Helligkeitsbild einer Kantenfilterung unterworfen wird.4. The method according to any one of claims 1 to 3, characterized in that the brightness image is subjected to edge filtering. 5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Kantenfilterung Kanten hervorhebt, die näherungsweise horizontal und vertikal sind.5. The method according to any one of claims 1 to 4, characterized in that the edge filtering highlights edges that are approximately horizontal and are vertical. 6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die Kantenfilterung an den Dynamikumfang des Helligkeitsbildes ange­ paßt wird.6. The method according to any one of claims 1 to 5, characterized in that the edge filtering to the dynamic range of the brightness image fits. 7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß in der Kanten-gefilterten Bildvorlage für den relevanten Bildausschnitt angepaßte Geraden ermittelt werden. 7. The method according to any one of claims 1 to 6, characterized in that in the edge-filtered image template for the relevant image section adapted straight lines can be determined.   8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß die angepaßten Geraden durch eine Hough-Transformation ermittelt werden.8. The method according to any one of claims 1 to 7, characterized in that the fitted straight line is determined by a Hough transformation will. 9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß aus den angepaßten Geraden die Geometriedaten des relevanten Bildausschnitts bestimmt werden.9. The method according to any one of claims 1 to 8, characterized in that the geometry data of the relevant Image detail can be determined.
DE1997100352 1997-01-08 1997-01-08 Procedure for determining the geometry data of the relevant image section Withdrawn DE19700352A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE1997100352 DE19700352A1 (en) 1997-01-08 1997-01-08 Procedure for determining the geometry data of the relevant image section
EP97953641A EP0950311A1 (en) 1997-01-08 1997-12-18 Method for determining the geometrical data of a given image segment
JP10530445A JP2000508460A (en) 1997-01-08 1997-12-18 How to determine the geometric data of an attention-related image section
PCT/DE1997/002947 WO1998031135A1 (en) 1997-01-08 1997-12-18 Method for determining the geometrical data of a given image segment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1997100352 DE19700352A1 (en) 1997-01-08 1997-01-08 Procedure for determining the geometry data of the relevant image section

Publications (1)

Publication Number Publication Date
DE19700352A1 true DE19700352A1 (en) 1998-07-09

Family

ID=7816945

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1997100352 Withdrawn DE19700352A1 (en) 1997-01-08 1997-01-08 Procedure for determining the geometry data of the relevant image section

Country Status (4)

Country Link
EP (1) EP0950311A1 (en)
JP (1) JP2000508460A (en)
DE (1) DE19700352A1 (en)
WO (1) WO1998031135A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19836071A1 (en) * 1998-08-10 2000-02-17 Schlafhorst & Co W Process for the detection of thread residues on spinning head sleeves
EP1699015A2 (en) * 2001-01-17 2006-09-06 Fuji Photo Film Co., Ltd. Image outline determination method, image outline determination apparatus, image outline determination program storage medium, image input apparatus and input program storage medium
DE10064043B4 (en) * 1999-12-22 2013-07-04 Sagem Communications Image scanning method with a scanner and scanning device with automatic determination of the zone to be scanned

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7457010B2 (en) 2003-05-29 2008-11-25 Hewlett-Packard Development Company, L.P. System and method for fast scanning

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4887151A (en) * 1986-06-30 1989-12-12 Canon Kabushiki Kaisha Encoding apparatus for color image data with block-by-block individual quantizing or individual encoding of luminosity, structure, and color information
DE3335657C2 (en) * 1982-10-01 1989-12-28 Canon K.K., Tokio/Tokyo, Jp
US4928167A (en) * 1986-09-02 1990-05-22 Fuji Photo Film Co., Ltd. Method of and apparatus for executing tone correction on an image according to a correction level
US5054098A (en) * 1990-05-21 1991-10-01 Eastman Kodak Company Method of detecting the skew angle of a printed business form
DE4105284A1 (en) * 1991-02-20 1992-11-05 Bacher Gmbh B METHOD AND DEVICE FOR VIDEO SUPPORTED ASSEMBLY
DE4311172C2 (en) * 1992-04-06 1996-03-28 Ricoh Kk Method and device for identifying a skew angle of a document image
US5528387A (en) * 1994-11-23 1996-06-18 Xerox Corporation Electronic image registration for a scanner

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07113969B2 (en) * 1986-03-05 1995-12-06 キヤノン株式会社 Image processing method
US4774569A (en) * 1987-07-24 1988-09-27 Eastman Kodak Company Method for adaptively masking off a video window in an overscanned image
US4962539A (en) * 1988-02-18 1990-10-09 Fuji Photo Film Co., Ltd. Method of recognizing layout and subdivision patterns of radiation images
JPH0820367B2 (en) * 1991-04-19 1996-03-04 株式会社イナックス Tile unit inspection method
JPH05258146A (en) * 1992-03-13 1993-10-08 Glory Ltd Correction device for oblique running data of paper sheet or the like
JPH05344318A (en) * 1992-06-10 1993-12-24 Canon Inc Picture inputting device
US5568571A (en) * 1992-12-14 1996-10-22 University Microfilms, Inc. Image enhancement system
US5818976A (en) * 1993-10-25 1998-10-06 Visioneer, Inc. Method and apparatus for document skew and size/shape detection
JPH07220066A (en) * 1994-01-28 1995-08-18 Matsushita Electric Ind Co Ltd Picture processor
JPH08294007A (en) * 1995-04-20 1996-11-05 Mita Ind Co Ltd Image processing unit

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3335657C2 (en) * 1982-10-01 1989-12-28 Canon K.K., Tokio/Tokyo, Jp
US4887151A (en) * 1986-06-30 1989-12-12 Canon Kabushiki Kaisha Encoding apparatus for color image data with block-by-block individual quantizing or individual encoding of luminosity, structure, and color information
US4928167A (en) * 1986-09-02 1990-05-22 Fuji Photo Film Co., Ltd. Method of and apparatus for executing tone correction on an image according to a correction level
US5054098A (en) * 1990-05-21 1991-10-01 Eastman Kodak Company Method of detecting the skew angle of a printed business form
DE4105284A1 (en) * 1991-02-20 1992-11-05 Bacher Gmbh B METHOD AND DEVICE FOR VIDEO SUPPORTED ASSEMBLY
DE4311172C2 (en) * 1992-04-06 1996-03-28 Ricoh Kk Method and device for identifying a skew angle of a document image
US5528387A (en) * 1994-11-23 1996-06-18 Xerox Corporation Electronic image registration for a scanner

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
08191391 A *
JP Patents Abstracts of Japan: 08161390 A *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19836071A1 (en) * 1998-08-10 2000-02-17 Schlafhorst & Co W Process for the detection of thread residues on spinning head sleeves
US6580813B1 (en) 1998-08-10 2003-06-17 W. Schlafhorst Ag & Co. Method and apparatus for detecting residual yarn on spinning cop tubes
DE10064043B4 (en) * 1999-12-22 2013-07-04 Sagem Communications Image scanning method with a scanner and scanning device with automatic determination of the zone to be scanned
EP1699015A2 (en) * 2001-01-17 2006-09-06 Fuji Photo Film Co., Ltd. Image outline determination method, image outline determination apparatus, image outline determination program storage medium, image input apparatus and input program storage medium
EP1699015A3 (en) * 2001-01-17 2006-10-18 Fuji Photo Film Co., Ltd. Image outline determination method, image outline determination apparatus, image outline determination program storage medium, image input apparatus and input program storage medium

Also Published As

Publication number Publication date
JP2000508460A (en) 2000-07-04
EP0950311A1 (en) 1999-10-20
WO1998031135A1 (en) 1998-07-16

Similar Documents

Publication Publication Date Title
DE4309878C2 (en) Method and device for analyzing and correcting the image gradation in image templates
DE19842572B4 (en) Method for the automatic removal of image defects
DE4310727C2 (en) Method and device for analyzing image templates
DE4202579C2 (en) Document processing system
DE3047633A1 (en) METHOD FOR AUTOMATICALLY DETERMINING COLOR SETTING CONDITIONS FOR A REPRODUCTION IMAGE
DE4309877C2 (en) Method and device for analyzing color casts in color templates
DE3935067C2 (en)
DE19914518A1 (en) Correction process for image lighting and skin color variations
DD150956A5 (en) METHOD AND CIRCUIT ARRANGEMENT FOR PARTIAL ELECTRONIC RETOUCHING IN COLOR IMAGE REPRODUCTION
DE10137211A1 (en) Edges improving processor for adjustable grey level output changes image data at specific pixel locations to include grey level image data for reducing serrated edging in an image.
DE3839299A1 (en) Image processing device
DE19904997A1 (en) Process and device for automatic canceling out of unwanted colors from a digitally scanned image for use in scanning in data in forms for later text processing
EP0059705B1 (en) Method and circuit for partial correction of the drawing during the colour image reproduction
DE19912511A1 (en) Process for creating trapping contours in a printed page
DE19924143A1 (en) Shading correction apparatus for image recording system
DE3437063A1 (en) METHOD AND ARRANGEMENT FOR DISPLAYING A HALFTONE IMAGE USING A DETECTIVELY ADAPTED GRID
DE3324736A1 (en) INPUT / OUTPUT SYSTEM FOR IMAGE DISPLAY
DE4309879C2 (en) Method and device for analyzing the image size of image templates
DE19700318A1 (en) Method for determining the geometry data of scanning templates
DE3521682A1 (en) METHOD FOR SCANING AND RECORDING IMAGES
DE3303841C2 (en) Pattern checking device and method for checking a pattern
DE19700352A1 (en) Procedure for determining the geometry data of the relevant image section
DE3843322C2 (en) Image processing method and apparatus
EP0978097B1 (en) Method for modifying the size of line elements
DE10121811A1 (en) Error detection and correction in reference strips for the calibration of scanning devices

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8141 Disposal/no request for examination