DE19700318A1 - Method for determining the geometry data of scanning templates - Google Patents

Method for determining the geometry data of scanning templates

Info

Publication number
DE19700318A1
DE19700318A1 DE19700318A DE19700318A DE19700318A1 DE 19700318 A1 DE19700318 A1 DE 19700318A1 DE 19700318 A DE19700318 A DE 19700318A DE 19700318 A DE19700318 A DE 19700318A DE 19700318 A1 DE19700318 A1 DE 19700318A1
Authority
DE
Germany
Prior art keywords
image
contours
scanner
values
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19700318A
Other languages
German (de)
Inventor
Uwe-Jens Krabbenhoeft
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heidelberger Druckmaschinen AG
Original Assignee
Heidelberger Druckmaschinen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heidelberger Druckmaschinen AG filed Critical Heidelberger Druckmaschinen AG
Priority to DE19700318A priority Critical patent/DE19700318A1/en
Priority to PCT/DE1997/002952 priority patent/WO1998031136A1/en
Priority to JP10530446A priority patent/JP2000508461A/en
Priority to EP97952733A priority patent/EP0950310A1/en
Publication of DE19700318A1 publication Critical patent/DE19700318A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Abstract

Disclosed is a method for automatically determining the geometrical data - arrangement, measurements and relative positions - of image documents placed on the table or drum of a scanner. The scanning data related to a given document portion are used to determine and analyse the luminosity characteristics. Mainly the horizontal and vertical lines are emphasized by a digital filtering process. From the luminosity characteristics a decision is made based on a threshold value to obtain a binary picture, the contours of which are examined. The contours of the image document are determined based on the length, width and height of the areas enclosed inside the contours of the binary picture. A Hough transformation of the straight lines adapted to the contours of the image document is made to determine, based on said straight lines, the geometrical data of said document.

Description

Die Erfindung bezieht sich auf das Gebiet der elektronischen Reproduktions­ technik und betrifft ein Verfahren zur automatischen Bestimmung der Lage und des Drehwinkels von abzutastenden Bildvorlagen auf einem Scannertablett bzw. einer Scannertrommel.The invention relates to the field of electronic reproduction technology and relates to a method for automatically determining the position and the angle of rotation of images to be scanned on a scanner tablet or a scanner drum.

In der Reproduktionstechnik werden Druckvorlagen für Druckseiten erzeugt die alle zu druckenden Elemente wie Texte, Grafiken und Bilder enthalten. Im Fall der elektronischen Herstellung der Druckvorlagen liegen diese Elemente in Form von digitalen Daten vor. Für ein Bild werden die Daten z. B. erzeugt, in­ dem das Bild in einem Scanner punkt- und zeilenweise abgetastet wird, jeder Bildpunkt in Farbkomponenten zerlegt wird und die Farbwerte dieser Kompo­ nenten digitalisiert werden. Üblicherweise werden Bilder in einem Scanner in die Farbkomponenten Rot, Grün und Blau (R, G, B) zerlegt. Für den Vier­ farbdruck werden diese Komponenten dann weiter in die Druckfarben Cyan, Magenta, Gelb und Schwarz (C, M, Y, K) transformiert. Für Schwarz-Weiß- Bilder erzeugt der Scanner entweder gleich nur eine Komponente mit Grauwer­ ten oder die zunächst abgetasteten RGB-Komponenten werden später in die Druckfarbe Schwarz umgerechnet.In reproduction technology, print templates for printed pages are created contain all elements to be printed such as texts, graphics and images. In the case these elements are in the electronic production of the print templates Form of digital data. For an image, the data is e.g. B. generated in where the image is scanned point by point and line by line in a scanner, everyone Pixel is broken down into color components and the color values of this compo be digitized. Usually, images are scanned in a scanner the color components red, green and blue (R, G, B) decomposed. For the four These components are then color printed further into the cyan printing inks, Magenta, yellow and black (C, M, Y, K) transformed. For black and white The scanner either creates images with just one component with Grauwer or the initially scanned RGB components are later added to the Converted black printing ink.

Der Scanner kann ein Flachbettgerät sein, in dem die abzutastenden Bildvorla­ gen auf einem Scannertablett montiert werden. Die Bildvorlagen können trans­ parent sein (Diapositive oder Farbnegative) oder reflektierend (Aufsichtsbilder). Das Scannertablett wird beleuchtet, und das durchscheinende bzw. reflektierte Licht einer Scanlinie wird durch Farbfilter in die Farbkomponenten zerlegt. The scanner can be a flatbed device in which the image template to be scanned be mounted on a scanner tray. The image templates can be trans be parent (slides or color negatives) or reflective (top pictures). The scanner tray is illuminated and the translucent or reflected Light from a scan line is broken down into color components by color filters.  

Das Licht der Farbkomponenten wird dann z. B. mittels einer CCD-Zeile weiter in diskrete Bildpunkte zerlegt und in elektrische Signale umgewandelt, die an­ schließend digitalisiert werden. Alternativ kann auch ein Trommelscanner ver­ wendet werden, in dem die Bildvorlagen auf eine transparente Scannertrommel montiert werden. Die Scannertrommel wird je nach Art der Bildvorlagen (trans­ parent oder reflektierend) punktförmig von innen oder außen beleuchtet, und das durchscheinende bzw. reflektierte Licht der Farbkomponenten wird in ei­ nem Abtastkopf auf Lichtsensoren fokussiert und in elektrische Signale um­ gewandelt. Dabei rotiert die Scannertrommel, während die Beleuchtungseinrich­ tung und der Abtastkopf entlang der Achse der Scannertrommel bewegt wer­ den, so daß die Oberfläche der Scannertrommel punkt- und zeilenweise abge­ tastet wird.The light of the color components is then z. B. further by means of a CCD line broken down into discrete pixels and converted into electrical signals that respond to finally digitized. Alternatively, a drum scanner can also be used be applied by placing the image on a transparent scanner drum to be assembled. Depending on the type of image (trans parent or reflective) illuminated in spots from inside or outside, and the translucent or reflected light of the color components is in egg focused on light sensors and into electrical signals changed. The scanner drum rotates while the lighting device tion and the scanning head along the axis of the scanner drum who moves the so that the surface of the scanner drum abge point and line gropes.

Um das Abtasten der Bildvorlagen rationeller durchzuführen, werden mehrere Bildvorlagen auf das Scannertablett bzw. die Scannertrommel montiert, die der Scanner dann automatisch nacheinander abtasten, digitalisieren und speichern soll. Dazu müssen in einem Arbeitsvorbereitungsprozeß die Positionen der Bil­ der auf dem Scannertablett bzw. auf der Scannertrommel, ihre Abmessungen und ihre Winkellage erfaßt und eingegeben werden. Damit sind die Ausschnitte der zur Verfügung stehenden Scanfläche definiert, die vom Scanner abgetastet und den einzelnen Bildern zugeordnet werden sollen.To make the scanning of the image templates more efficient, several are Images are mounted on the scanner tray or the scanner drum that the Then scan, digitize and save the scanner automatically one after the other should. To do this, the positions of the bil the dimensions on the scanner tray or on the scanner drum and their angular position are recorded and entered. With that are the cutouts of the available scan area that is scanned by the scanner and should be assigned to the individual images.

Nach dem Stand der Technik ist das Ausmessen und Eingeben dieser Geome­ triedaten für jede einzelne Bildvorlage zeitaufwendig. Oft wird dazu eine Über­ sichtsabtastung der gesamte Scanfläche in grober Auflösung durchgeführt. Die Scandaten der Übersichtsabtastung werden auf einem Monitor dargestellt, und mit einem Cursor können dann manuell auf dem Bildschirm die Eckpunkte der abzutastenden Bildvorlagen markiert werden. Nach einer anderen Methode werden die Bilder auf eine Montagefolie montiert, die auf ein Digitalisiertablett gelegt wird. Dort werden dann die Koordinaten der Bilder erfaßt. Anschließend wird die Montagefolie auf das Scannertablett bzw. die Scannertrommel aufge­ bracht. Es gibt hierfür auch die Lösung, daß die Einrichtung zur Erfassung der Koordinaten in das Scannertablett integriert ist. In jedem Fall ist die Koordina­ tenerfassung mit manueller Arbeit und Zeitaufwand verbunden.The state of the art is to measure and enter these geomes trial data for each individual image template is time-consuming. Often this becomes an over visual scanning of the entire scanning area in high resolution. The Scan data of the overview scan are displayed on a monitor, and with a cursor you can then manually move the corner points of the image templates to be scanned are marked. Another method the images are mounted on a mounting sheet on a digitizing tablet is placed. The coordinates of the images are then recorded there. Subsequently the mounting film is placed on the scanner tray or the scanner drum brings. There is also a solution for this that the device for recording the  Coordinates are integrated in the scanner tablet. In any case, the coordina acquisition associated with manual work and time expenditure.

Obwohl man sich bemüht, die Bilder so gerade wie möglich auf die Scanfläche zu montieren, ist die Erfassung der Winkellage der Bilder doch sinnvoll. Da die exakte Ausrichtung der Bilder bei der Montage arbeitsaufwendig und zeitrau­ bend ist, kann es wirtschaftlicher sein, die Bilder nur annähernd gerade zu montieren und die genaue Ausrichtung später auszuführen. Manche Flachbett­ scanner haben eine Vorrichtung, mit der das Scannertablett um einen beliebi­ gen vorgegebenen Winkel gedreht werden kann. Damit kann die schiefe Mon­ tage des Bildes auf der Scanfläche beim Scannen korrigiert werden. Wenn eine solche Drehvorrichtung nicht vorhanden ist, können die gescannten Bilddaten später in einem Rechenprozeß gedreht werden, um die schiefe Montage zu korrigieren.Although efforts are made to keep the images as straight as possible on the scan surface to mount, it makes sense to record the angular position of the pictures. Since the exact alignment of the images during assembly time-consuming and laborious bend, it can be more economical to only approximate the pictures assemble and perform the exact alignment later. Some flat beds scanners have a device with which the scanner tablet by an arbitrary can be rotated against the specified angle. With that the crooked mon days of the image on the scan surface can be corrected when scanning. When a such a rotating device does not exist, the scanned image data later turned in an arithmetic process to make the oblique assembly too correct.

Es ist die Aufgabe der vorliegenden Erfindung, die zuvor beschriebene manuel­ le Erfassung der Geometriedaten zu vermeiden und ein Verfahren zur automa­ tischen Bestimmung von Position, Abmessungen und Winkellage der abzuta­ stenden Bildvorlagen anzugeben. Diese Aufgabe wird durch die Merkmale des Anspruchs 1 und der Unteransprüche 2 bis 13 gelöst.It is the object of the present invention, the previously described manual to avoid the acquisition of the geometry data and a procedure for automa tical determination of the position, dimensions and angular position of the abta to specify existing picture templates. This task is characterized by the characteristics of the Claim 1 and the subclaims 2 to 13 solved.

Die Erfindung wird nachfolgend anhand der Fig. 1 bis 9 näher beschrieben. Es zeigen:The invention is described below with reference to FIGS. 1 to 9. Show it:

Fig. 1 eine Scanfläche mit montierten Bildvorlagen, Fig. 1 is a scanning surface with mounted image originals,

Fig. 2 die Bestimmung von Weißpunkt und Schwarzpunkt im Histogramm, Fig. 2 shows the determination of the white point and black point in the histogram,

Fig. 3 Kantenfilter für horizontale und vertikale Kanten, Fig. 3 cut-off filters for horizontal and vertical edges,

Fig. 4 die Schwellwertentscheidung zur Erzeugung eines Binärbildes, Fig. 4, the threshold value for generating a binary image,

Fig. 5 ein Beispiel für das Ergebnis der Kantenfilterung und Binärbilderzeu­ gung, Fig. 5 supply an example of the result of edge filtering and Binärbilderzeu,

Fig. 6 eine Pixelmaske zur Verfolgung von Konturen, Fig. 6 shows a pixel mask to track contours,

Fig. 7 ein Beispiel für das Ergebnis der Konturenanalyse, Fig. 7 shows an example for the result of analysis contours,

Fig. 8 die Suche nach einer angepaßten Geraden mittels der Hough- Transformation und Fig. 8 search for a fitted line using the Hough transform and

Fig. 9 ein Beispiel für das Ergebnis der Verarbeitung. Fig. 9 is an example of the result of processing.

Fig. 1 zeigt eine Scanfläche (1) mit einigen montierten Bildvorlagen (2). Die Bildvorlagen sind im allgemeinen farbige oder schwarz-weiße Diapositive, Ne­ gative oder Aufsichtsbilder. In der Fig. 1 sind sie aus Gründen der einfachen Vervielfältigung als Binärbilder mit nur schwarzen und weißen Bildpunkten an­ gedeutet. Die Scanfläche ist die Oberfläche eines Scannertabletts in einem Flachbettscanner oder die Oberfläche der Scannertrommel in einem Trommel­ scanner. Fig. 1 shows a scanning surface ( 1 ) with some mounted image templates ( 2 ). The picture templates are generally colored or black and white slides, negatives or top pictures. In Fig. 1 they are interpreted for the sake of simple duplication as binary images with only black and white pixels. The scanning area is the surface of a scanner tablet in a flatbed scanner or the surface of the scanner drum in a drum scanner.

In einem ersten Verarbeitungsschritt wird eine Übersichtsabtastung der Scan­ fläche (1) in grober Auflösung durchgeführt, z. B. mit 30 Pixel/cm. Aus den ge­ speicherten RGB-Scandaten dieser Abtastung wird erfindungsgemäß ein Bild­ signal errechnet, das möglichst deutlich die Umrisse der montierten Bildvorla­ gen wiedergibt. Vorzugsweise ist das eine Helligkeitskomponente, z. B. die L-Komponente, die bei der Transformation der RGB-Daten in LAB-Daten des CIELAB-Farbraums gewonnen wird (CIE = Commission Internationale d'Eclai­ rage). Eine Helligkeitskomponente kann aber auch durch eine gewichtete Addi­ tion der RGB-Daten gewonnen werden. Ersatzweise kann auch eine einzelne Farbkomponente, z. B. der grüne Anteil der RGB-Daten, als Helligkeitskompo­ nente verwendet werden. In a first processing step, an overview scan of the scan area ( 1 ) is carried out in high resolution, e.g. B. with 30 pixels / cm. According to the invention, an image signal is calculated from the stored RGB scan data of this scanning, which image reproduces the outlines of the mounted image templates as clearly as possible. Preferably, this is a brightness component, e.g. B. the L component, which is obtained during the transformation of the RGB data into LAB data of the CIELAB color space (CIE = Commission Internationale d'Eclai rage). A brightness component can also be obtained by weighted addition of the RGB data. Alternatively, a single color component, e.g. B. the green portion of the RGB data can be used as brightness component.

Im zweiten Verarbeitungsschritt der Erfindung wird ein Weißpunkt Lw und ein Schwarzpunkt Ls aus den Werten der Helligkeitskomponente bestimmt. Vor­ zugsweise werden dazu die Häufigkeiten aller Werte im Helligkeitsbild ermittelt und in einem kumulativen Histogramm aufgetragen. Als Weißpunkt Lw wird dann z. B. der Helligkeitswert definiert, bei dem im Histogramm 5% aller Hellig­ keitswerte erreicht sind. Als Schwarzpunkt Ls wird entsprechend dazu der Hel­ ligkeitswert definiert, bei dem im Histogramm 95% aller Helligkeitswerte erreicht sind. Bei diesen Prozentwerten erhält man erfahrungsgemäß Weiß- und Schwarzpunkte, die für das Bild repräsentativ sind. Aus der Differenz zwischen Schwarzpunkt und Weißpunkt ergibt sich der Dynamikumfang D des Hellig­ keitsbildes zu:
In the second processing step of the invention, a white point Lw and a black point Ls are determined from the values of the brightness component. For this purpose, the frequencies of all values in the brightness image are preferably determined and plotted in a cumulative histogram. The white point Lw is then z. B. defines the brightness value at which 5% of all brightness values are reached in the histogram. Accordingly, the brightness value is defined as black point Ls, at which 95% of all brightness values are reached in the histogram. Experience has shown that these percentage values give white and black points that are representative of the image. The dynamic range D of the brightness image results from the difference between the black point and white point:

D = Ls - Lw (1)D = Ls - Lw (1)

Fig. 2 zeigt das kumulative Histogramm mit dem Weißpunkt Lw und dem Schwarzpunkt Ls. Für die vorliegende Erfindung ist nicht wesentlich, bei wel­ chen Prozentwerten im Histogramm der Weißpunkt und der Schwarzpunkt fest­ gelegt werden. Es können beliebige Prozentwerte in der Nähe von 0% bzw. 100% gewählt werden. Grundsätzlich können auch die Helligkeitswerte bei 0% und bei 100%, d. h. die absolut hellsten und dunkelsten Werte im Helligkeitsbild als Weißpunkt und Schwarzpunkt gewählt werden. Dann besteht jedoch die Möglichkeit, daß der Weißpunkt und Schwarzpunkt nicht für das Bild repräsen­ tativ sind, wenn die extremen Helligkeitswerte bei 0% und 100% nur sehr selten im Bild vorkommen. Fig. 2 shows the cumulative histogram with the white point Lw and the black point Ls. It is not essential for the present invention at which percentage values in the histogram the white point and the black point are defined. Any percentage values close to 0% or 100% can be selected. In principle, the brightness values at 0% and at 100%, ie the absolutely brightest and darkest values in the brightness image, can also be selected as white point and black point. Then there is the possibility that the white point and black point are not representative of the image if the extreme brightness values at 0% and 100% are very rare in the image.

Wenn die Bildvorlagen relativ klein im Vergleich zur gesamten Scanfläche sind, ergibt sich im Histogramm ein sehr großer Wert bei 0%, der die leeren Flächen außerhalb der Bildvorlagen widerspiegelt und nicht für die Weißwerte innerhalb der Bildvorlagen repräsentativ ist. Dieser Einfluß kann korrigiert werden, indem extrem hohe Werte bei 0% im Histogramm um einen bestimmten Faktor redu­ ziert werden, bevor das Histogramm analysiert wird und der Weiß- und Schwarzpunkt festgelegt werden.If the original images are relatively small compared to the entire scan area, the histogram shows a very large value at 0% of the empty areas reflects outside the image templates and not for the white values inside the artwork is representative. This influence can be corrected by extremely high values at 0% in the histogram reduced by a certain factor before the histogram is analyzed and the white and Black point can be set.

Im nächsten Verarbeitungsschritt der Erfindung wird die Helligkeitskomponente einer digitalen Kantenfilterung unterworfen. Vorzugsweise werden Filter ver­ wendet, die an näherungsweise horizontalen und vertikalen Kanten hohe Aus­ gangswerte erzeugen und dadurch solche Kanten hervorheben.In the next processing step of the invention, the brightness component subjected to digital edge filtering. Filters are preferably used  turns the high off on approximately horizontal and vertical edges Generate initial values and thereby highlight such edges.

Fig. 3 zeigt als Beispiel jeweils ein einfaches Filter für horizontale Kanten (3) und für vertikale Kanten (4). Das horizontale Filter erstreckt sich über 2×5 Pi­ xel. Der eingekreiste Punkt P bezeichnet die Position des aktuellen Pixels. Die Werte hij an jeder Position des Filterfensters sind die Filterkoeffizienten. Die Filterung wird durchgeführt, indem der Punkt P des Filterfensters über jedes Pi­ xel des Helligkeitsbildes gelegt wird und die unter den jeweiligen Fensterposi­ tionen liegenden Pixelwerte Lij mit den Koeffizienten hij multipliziert und aufad­ diert werden. Das Ergebnis wird noch auf den Dynamikumfang D normalisiert, indem es mit 1/(k1 × D) multipliziert wird, wobei k1 eine Konstante ist. Der Fil­ terwert Fh jedes Pixels ergibt sich also zu:
Fig. 3 shows an example of a simple filter for horizontal edges ( 3 ) and for vertical edges ( 4 ). The horizontal filter extends over 2 × 5 pixels. The circled point P denotes the position of the current pixel. The values h ij at each position of the filter window are the filter coefficients. The filtering is carried out by placing the point P of the filter window over each pixel of the brightness image and multiplying and adding the pixel values L ij below the respective window positions by the coefficients h ij . The result is still normalized to the dynamic range D by multiplying it by 1 / (k1 × D), where k1 is a constant. The filter value F h of each pixel is thus:

Fh = [Σ (hij × Lij)]/(k1 × D) (2)F h = [Σ (h ij × L ij )] / (k1 × D) (2)

Für das vertikale Filter (4), das eine um 90° gedrehte Version des horizontalen Filters (3) ist, ergibt sich der Filterwert Fv entsprechend zu:
For the vertical filter ( 4 ), which is a version of the horizontal filter ( 3 ) rotated by 90 °, the filter value F v results accordingly:

Fv = [Σ (vij × Lij)]/(k1 × D) (3)F v = [Σ (v ij × L ij )] / (k1 × D) (3)

Die Filterwerte Fh und Fv der horizontalen und vertikalen Kantenfilterung wer­ den erfindungsgemäß anschließend zu einem resultierenden Filterwert F zu­ sammengefaßt. Vorzugsweise werden dazu für jedes Pixel die Beträge von Fh und Fv verglichen, und der jeweils größere Wert wird als resultierender Filter­ wert F genommen. Er ergibt sich dann zu
The filter values F h and F v of the horizontal and vertical edge filtering who according to the invention are then combined to form a resulting filter value F. For this purpose, the amounts of F h and F v are preferably compared for each pixel, and the respectively larger value is taken as the resulting filter value F. Then he surrenders

F = Vzmax × max (|Fh|, |Fv|), (4)F = Vz max × max (| F h |, | F v |), (4)

wobei Vzmax das Vorzeichen des ausgewählten Maximalwertes ist. where Vz max is the sign of the selected maximum value.

Für die vorliegende Erfindung sind die Form und Koeffizienten der in Fig. 3 ge­ zeigten Kantenfilter nicht wesentlich. Es können auch Filterfenster mit mehr oder weniger als 2 × 5 Pixel und mit anderen Koeffizienten verwendet werden. Wichtig ist nur, daß durch die Filterung vorwiegend horizontale und vertikale Kanten hervorgehoben werden. Ebenso können auch andere zusammenfas­ sende Funktionen als die nach Gleichung (4) verwendet werden, z. B. die Sum­ me der Betragswerte |Fh| und |Fv| versehen mit dem Vorzeichen des größeren Wertes.The shape and coefficients of the edge filters shown in FIG. 3 are not essential for the present invention. Filter windows with more or less than 2 × 5 pixels and with other coefficients can also be used. It is only important that the filtering mainly highlights horizontal and vertical edges. Likewise, other summarizing sending functions than that according to equation (4) can be used, for. B. the sum of the absolute values | F h | and | F v | provided with the sign of the larger value.

Im nächsten Verarbeitungsschritt der Erfindung wird das gefilterte Helligkeits­ bild F in ein Binärbild B mit nur zwei Werten 0 und 1 umgewandelt, indem die Filterwerte F mit Schwellwerten verglichen werden. Beispielsweise werden ein oberer Schwellwert S1 und ein unterer Schwellwert S2 gebildet als
In the next processing step of the invention, the filtered brightness image F is converted into a binary image B with only two values 0 and 1 by comparing the filter values F with threshold values. For example, an upper threshold value S1 and a lower threshold value S2 are formed as

S1 = +k2 × D (5)
S2 = -k2 × D,
S1 = + k2 × D (5)
S2 = -k2 × D,

wobei D der Dynamikumfang des Helligkeitsbildes L ist und k2 eine Konstante. Dann werden Filterwerte F, die über S1 oder unter S2 liegen, in den Binärwert 1 umgesetzt und Filterwerte, die zwischen S1 und S2 liegen, in den Binärwert 0.where D is the dynamic range of the brightness image L and k2 is a constant. Then filter values F, which are above S1 or below S2, are converted into binary value 1 implemented and filter values that lie between S1 and S2 in the binary value 0.

B = 1 für F < S2 oder F < S1 (6)
B = 0 für S2 ≦ F ≦ S1
B = 1 for F <S2 or F <S1 (6)
B = 0 for S2 ≦ F ≦ S1

Fig. 4 veranschaulicht für einen Ausschnitt aus einer Zeile des gefilterten Bildes F die Schwellwertentscheidung und die Erzeugung des Binärbildes B. Das Ziel der Schwellwertentscheidung ist, im Binärbild nur noch die betragsmäßig höchsten Filterwerte wiederzugeben, die die horizontalen und vertikalen Kanten repräsentieren, und die übrigen Filterwerte zu unterdrücken. Fig. 4 illustrates a section of a row of the filtered image F, the threshold value and generating the binary image B. The goal is the threshold value, only reproduce in the binary image, the magnitude highest filter values representing the horizontal and vertical edges, and the remaining Suppress filter values.

Fig. 5 zeigt das erzeugte Binärbild für das Beispiel aus Fig. 1, wobei die Binär­ werte 0 als weiße Bildpunkte und die Binärwerte 1 als schwarze Bildpunkte dargestellt sind. Für die vorliegende Erfindung ist nicht wesentlich, daß die Schwellwertentscheidung genau nach den Gleichungen (5) und (6) durchge­ führt wird. Wichtig ist nur, daß die Schwellwerte so gewählt werden, daß das Binärbild B vorwiegend nur noch die Filterwerte F wiedergibt, die den horizonta­ len und vertikalen Kanten im Helligkeitsbild L entsprechen. Es brauchen auch nicht zwei Schwellwerte S1 und S2 gewählt zu werden. Es genügt ein Schwell­ wert, mit dem z. B. der Betrag der Filterwerte F verglichen wird. FIG. 5 shows the binary image generated for the example from FIG. 1, the binary values 0 being represented as white pixels and the binary values 1 as black pixels. It is not essential for the present invention that the threshold decision is carried out exactly according to equations (5) and (6). It is only important that the threshold values are selected so that the binary image B predominantly only reproduces the filter values F which correspond to the horizontal and vertical edges in the brightness image L. Neither do two threshold values S1 and S2 need to be selected. A threshold is sufficient, with which, for. B. the amount of the filter values F is compared.

Im nächsten Verarbeitungsschritt der Erfindung werden im Binärbild B die Kon­ turen analysiert. Dazu wird zunächst ausgehend z. B. von der linken oberen Ec­ ke zeilenweise und pixelweise ein erster Konturpunkt gesucht, d. h. ein Pixel mit dem Binärwert 1. Von diesem Startpunkt aus wird eine Kontur Pixel für Pixel verfolgt, bis der Startpunkt wieder erreicht ist. Zur Konturverfolgung können verschiedene bekannte Verfahren eingesetzt werden.In the next processing step of the invention, the contours are analyzed in binary image B. For this, starting with z. B. from the top left Ec ke line by line and pixel by pixel searched for a first contour point, ie a pixel with the binary value 1 . A contour is traced pixel by pixel from this starting point until the starting point is reached again. Various known methods can be used for contour tracking.

Fig. 6 zeigt als Beispiel eine Maske über 3×3 Pixel für ein bevorzugtes Verfah­ ren der Konturverfolgung. Der zentrale Punkt P wird auf den Startpunkt der Kontur gesetzt, und die acht Nachbarpixel werden im Uhrzeigersinn der Reihe nach untersucht, ob sie den Binärwert 1 haben. Sobald das erste Pixel mit dem Binärwert 1 gefunden wurde, wird die Untersuchungsmaske nach dorthin ver­ schoben und die Untersuchung der acht Nachbarpixel beginnt erneut. Dies wird solange fortgesetzt, bis der Startpunkt wieder erreicht ist. In der Fig. 6 ist die Reihenfolge, in der die Nachbarpixel untersucht werden, durch die eingetrage­ nen Zahlen 1. . ..8 dargestellt. Fig. 6 shows an example of a mask over 3 × 3 pixels of a preferred procedural ren the contour tracing. The central point P is set at the starting point of the contour, and the eight neighboring pixels are examined clockwise in order to determine whether they have the binary value 1. As soon as the first pixel with the binary value 1 has been found, the examination mask is moved there and the examination of the eight neighboring pixels begins again. This continues until the starting point is reached again. In Fig. 6, the order in which the neighboring pixels are examined by the entered numbers 1.. ..8 shown.

Wenn der Startpunkt wieder erreicht ist, wird erfindungsgemäß anhand ver­ schiedener Kriterien geprüft, ob die gefundene Kontur der Umriß einer Bildvor­ lage ist oder etwas anderes, z. B. ein Kratzer oder ein Schmutzrest von einem Klebeband. Ein bevorzugtes Kriterium ist, daß die Kontur eine Mindestlänge haben muß, z. B. 150 mm, um als Umriß einer Bildvorlage interpretiert zu wer­ den.When the starting point is reached again, according to the invention, ver various criteria checked whether the contour found outlines the outline of an image location or something else, e.g. B. a scratch or a residue of dirt from one Duct tape. A preferred criterion is that the contour has a minimum length must have, e.g. B. 150 mm, to be interpreted as the outline of a picture template the.

Länge (Kontur) ≧ Längemin (7)Length (contour) ≧ length min (7)

Ein weiteres bevorzugtes Kriterium ist, daß die von der Kontur umschlossene Fläche eine minimale Breite und Höhe haben muß, z. B. 20 mm.Another preferred criterion is that the contour enclosed Area must have a minimum width and height, e.g. B. 20 mm.

Breite (Kontur) ≧ Breitemin (8)
Höhe (Kontur) ≧ Höhemin
Width (contour) ≧ Width min (8)
Height (contour) ≧ height min

Die minimalen Werte für Länge, Breite und Höhe werden so gewählt, daß die kleinsten möglichen Bildvorlagen noch sicher durch diese Kriterien erfaßt wer­ den. Eine Kontur, die nach diesen Kriterien kein Bildvorlagenumriß ist, wird in dem Binärbild B gelöscht. Ebenso wird das Innere eines gefundenen Bildumriß gelöscht, da die darin enthaltenen Bildkonturen für die weitere Untersuchung irrelevant sind. Anschließend wird ein neuer Startpunkt gesucht und die nächste Kontur analysiert, bis alle Konturen im Binärbild abgearbeitet sind.The minimum values for length, width and height are chosen so that the the smallest possible image templates can still be captured by these criteria the. A contour that is not an outline of the image according to these criteria is shown in binary image B deleted. Likewise, the inside of a picture outline found deleted because the image contours contained therein for further examination are irrelevant. Then a new starting point is sought and the next one Contour analyzed until all contours in the binary image have been processed.

Fig. 7 zeigt das Ergebnis der Konturenanalyse für das Beispiel aus Fig. 1. Im Vergleich zum Binärbild B in Fig. 5 bleiben nur die Konturen übrig, die die Um­ risse von Bildvorlagen sind. FIG. 7 shows the result of the contour analysis for the example from FIG. 1. In comparison to the binary image B in FIG. 5, only the contours remain which are the outlines of image templates.

Fig. 8 zeigt den nächsten Verarbeitungsschritt der Erfindung, in dem für jede der vier Seiten eines gefundenen Bildvorlagenumriß eine optimal angepaßte Gerade ermittelt wird. Hierzu wird erfindungsgemäß ein Verfahren eingesetzt, das in der Bildverarbeitungstechnik als Hough-Transformation bekannt ist (H. Bässmann, P.W. Besslich: Bildverarbeitung Ad Oculos, S. 101-121, Springer Verlag 1993). Zunächst wird das umschreibende Rechteck (5) des Umriß mit den Eckpunkten A, B, C, D gebildet, dessen Seiten parallel zur Haupt- bzw. Nebenabtastrichtung sind. Dann wird für jede Seite des Umriß in einem be­ stimmten Suchbereich für Geraden mit verschiedenen Positionen und unter verschiedenen Winkeln festgestellt, wieviele Umrißpunkte auf ihnen liegen. Die Gerade, auf der die meisten Umrißpunkte liegen, wird als optimal angepaßte Gerade für diese Umrißseite ausgewählt. FIG. 8 shows the next processing step of the invention, in which an optimally adapted straight line is determined for each of the four sides of a found image outline. For this purpose, a method is used according to the invention which is known in image processing technology as the Hough transformation (H. Bässmann, PW Besslich: Bildverarbeitung Ad Oculos, pp. 101-121, Springer Verlag 1993). First, the circumscribing rectangle ( 5 ) of the outline with the corner points A, B, C, D is formed, the sides of which are parallel to the main or secondary scanning direction. Then it is determined for each side of the outline in a certain search area for straight lines with different positions and at different angles how many outline points lie on them. The straight line on which most of the outline points lie is selected as the optimally adapted straight line for this outline side.

Fig. 8 zeigt den Suchbereich für die linke Seite des Umriß. Entlang einer waa­ gerechten Strecke wird im Abstand s vom Punkt A ein Punkt G festgelegt. Durch den Punkt G werden unter verschiedenen Winkeln α Geraden (6) gelegt. Für jede der Geraden wird geprüft, wieviele Punkte des Umriß auf dieser Gera­ den liegen. Diese Zahl wird in eine α,s-Matrix (7) unter der durch α und s defi­ nierten Spalte und Zeile eingetragen. Jede Zelle der Matrix entspricht einer der geprüften Geraden. Durch Variation von s und α wird in dieser Weise eine Viel­ zahl von Geraden untersucht. Da in diesem Fall nach einer näherungsweise senkrechten Geraden gesucht wird, kann der Parameter s auf einen Streifen und α auf einen kleinen Winkelbereich eingeschränkt werden, um die benötigte Verarbeitungszeit zu verringern. Figure 8 shows the search area for the left side of the outline. A point G is defined at a distance s from point A along a horizontal route. Through the point G, α lines ( 6 ) are laid at different angles. For each of the straight lines it is checked how many points of the outline lie on this straight line. This number is entered in an α, s matrix ( 7 ) under the column and row defined by α and s. Each cell in the matrix corresponds to one of the straight lines tested. By varying s and α, a large number of straight lines are examined in this way. Since an approximately vertical line is sought in this case, the parameter s can be restricted to a strip and α to a small angular range in order to reduce the processing time required.

-smax ≦ s ≦ +smax (9)
max ≦ α ≦ +αmax
-s max ≦ s ≦ + s max (9)
max ≦ α ≦ + α max

Für die Begrenzungen wird beispielsweise smax = 10 mm und αmax = 15° ge­ wählt.For the limits, for example, s max = 10 mm and α max = 15 ° is selected.

Nach der Suchoperation wird festgestellt, welche Zelle der α,s-Matrix (7) den höchsten Zahlenwert enthält. Die zugehörigen Werte von s und α definieren ei­ ne Gerade, die die entsprechende Seite des Bildvorlagenumriß am genauesten wiedergibt. Ausgehend von den Eckpunkten B, C, D des umschreibenden Rechtecks (5) geschieht die Suche und Bestimmung der optimal angepaßten Geraden für die restlichen drei Seiten des Bildumriß in gleicher Weise, wie es für die Fig. 8 beschrieben wurde.After the search operation, it is determined which cell of the α, s matrix ( 7 ) contains the highest numerical value. The associated values of s and α define a straight line that most accurately represents the corresponding side of the image outline. Starting from the corner points B, C, D of the circumscribing rectangle ( 5 ), the search and determination of the optimally adapted straight line for the remaining three sides of the image outline takes place in the same way as was described for FIG. 8.

Die Strategie für die Suche nach der optimal angepaßten Geraden mit Hilfe der Hough-Transformation kann natürlich in vielfältiger Weise variiert werden. Der Punkt G, durch den die Suchgeraden führen, muß nicht wie in Fig. 8 gezeigt am oberen Rand des umschreibenden Rechtecks (5) liegen. Er kann z. B. auch am unteren Rand liegen oder auf halber Höhe des Rechtecks (5). Wichtig ist nur, daß in einem definierten Suchbereich um die anzupassende Seite des Bildvor­ lagenumriß herum systematisch alle bezüglich Position und Winkel möglichen Geraden nach dem Prinzip der Hough-Transformation untersucht werden. Die Suchstrategie kann auch noch im Hinblick auf die Verarbeitungszeit optimiert werden, wenn z. B. die Parameter s und α zunächst in groben Schritten variiert werden und dann um das Maximum der Hough-Transformierten herum die Un­ tersuchung mit feineren Schritten fortgesetzt wird.The strategy for the search for the optimally adapted straight line using the Hough transformation can of course be varied in many ways. The point G through which the search lines lead does not have to lie at the upper edge of the circumscribing rectangle ( 5 ), as shown in FIG. 8. He can e.g. B. also lie at the bottom or halfway up the rectangle ( 5 ). It is only important that in a defined search area around the side of the image template to be adjusted systematically all straight lines with regard to position and angle are systematically examined according to the principle of the Hough transformation. The search strategy can also be optimized with regard to the processing time if e.g. B. the parameters s and α are first varied in coarse steps and then around the maximum of the Hough transforms, the investigation continues with finer steps.

Die gefundenen angepaßten Geraden für die vier Seiten des Bildumriß ergeben im allgemeinen kein Viereck mit rechten Winkeln. Deshalb wird im letzten Ver­ arbeitungsschritt der Erfindung aus den angepaßten Geraden ein Abtastrecht­ eck gebildet. Das kann in vielfältiger Weise geschehen. Eine bevorzugte Me­ thode ist:
The found straight lines found for the four sides of the image outline generally do not result in a right-angled square. Therefore, in the last processing step of the invention, a scanning right corner is formed from the adapted straight lines. This can be done in a variety of ways. A preferred method is:

  • a) Mittelung der Winkel aller vier Geraden (wobei für zwei Geraden 90° ad­ diert bzw. subtrahiert werden). Dabei werden die Winkel mit dem Wert der Hough-Transformation gewichtet, da ein Winkel um so "sicherer" ist, je mehr Umrißpunkte für die entsprechende Gerade gefunden wurden.a) Averaging the angles of all four straight lines (whereby 90 ° ad dated or subtracted). The angles are the value of Hough transformation weighted because an angle is the "safer", ever more outline points were found for the corresponding straight line.
  • b) Prüfung, ob ein Winkel vom Mittelwert um mehr als einen bestimmten Be­ trag abweicht. Wenn ja, wird der Mittelwert aus den verbleibenden drei Ge­ raden gebildet.b) Check whether an angle from the mean value by more than a certain Be wear differs. If so, the average of the remaining three Ge straight formed.
  • c) Bestimmung des Abtastrechtecks mit den vier Geraden unter Verwendung des mittleren Winkels (für zwei Geraden um 90° modifiziert).c) Determining the scanning rectangle with the four straight lines using of the middle angle (modified by 90 ° for two straight lines).

Nach der Bestimmung der Abtastrechtecke für alle Bildvorlagen auf der Scan­ fläche werden die gefundenen Koordinaten und Winkel zur Einstellung des Scanners für die hochaufgelöste Abtastung verwendet bzw. zur nachträglichen Drehwinkelkorrektur der gescannten Bilddaten. Fig. 9 zeigt das Ergebnis der beschriebenen Verarbeitung für das Beispiel aus Fig. 1. Da im letzten Verarbei­ tungsschritt rechte Winkel des Abtastrechtecks erzwungen wurden, stimmen die Seiten des Abtastrechtecks nicht immer ganz genau mit den Seiten der Bildvor­ lagen überein.After determining the scanning rectangles for all image originals on the scanning surface, the coordinates and angles found are used for setting the scanner for the high-resolution scanning or for subsequent correction of the angle of rotation of the scanned image data. Fig. 9 shows the result of the processing described for the example of Fig. 1. Since right angles of the scanning rectangle were enforced in the last processing step, the sides of the scanning rectangle do not always exactly match the pages of the image templates.

Claims (13)

1. Verfahren zur Erfassung der Geometriedaten, wie Position, Abmessungen und Winkellage, von auf einer Scanfläche montierten Bildvorlagen da­ durch gekennzeichnet, daß die Geometriedaten automatisch durch Abta­ stung der Scanfläche und Analyse der Scandaten ermittelt werden.1. A method for detecting the geometry data, such as position, dimensions and angular position, of image templates mounted on a scan surface, characterized in that the geometry data are automatically determined by scanning the scan surface and analyzing the scan data. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß aus den Scan­ daten der Scanfläche ein Helligkeitsbild gewonnen wird.2. The method according to claim 1, characterized in that from the scan data of the scan surface a brightness image is obtained. 3. Verfahren nach Anspruch 1 und 2, dadurch gekennzeichnet, daß das Hel­ ligkeitsbild einer Kantenfilterung unterworfen wird.3. The method according to claim 1 and 2, characterized in that the hel edge image is subjected to edge filtering. 4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß die Kantenfilterung Kanten hervorhebt, die näherungsweise horizontal und vertikal sind.4. The method according to any one of claims 1 to 3, characterized in that the edge filtering highlights edges that are approximately horizontal and are vertical. 5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Kantenfilterung an den Dynamikumfang des Helligkeitsbildes ange­ paßt wird.5. The method according to any one of claims 1 to 4, characterized in that the edge filtering to the dynamic range of the brightness image fits. 6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß aus dem Kanten-gefilterten Bild durch Schwellwertentscheidung ein Bi­ närbild gewonnen wird.6. The method according to any one of claims 1 to 5, characterized in that from the edge-filtered image by threshold decision a Bi närbild is won. 7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß in dem Binärbild geschlossene Konturen ermittelt werden. 7. The method according to any one of claims 1 to 6, characterized in that closed contours are determined in the binary image.   8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß durch Analyse der geschlossenen Konturen Bildvorlagenumrisse er­ kannt werden.8. The method according to any one of claims 1 to 7, characterized in that by analyzing the closed contours he outlines the original be known. 9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß die Bildvorlagenumrisse aufgrund der Länge der geschlossenen Kontu­ ren erkannt werden.9. The method according to any one of claims 1 to 8, characterized in that the image outline due to the length of the closed contour be recognized. 10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, daß die Bildvorlagenumrisse aufgrund der Breite und Höhe der von den Konturen umschlossenen Flächen erkannt werden.10. The method according to any one of claims 1 to 9, characterized in that the image outline due to the width and height of the Contours of enclosed surfaces can be recognized. 11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, daß für die Bildvorlagenumrisse angepaßte Geraden ermittelt werden.11. The method according to any one of claims 1 to 10, characterized in that that straight lines adapted for the image outline are determined. 12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, daß die angepaßten Geraden durch eine Hough-Transformation ermittelt werden.12. The method according to any one of claims 1 to 11, characterized in that the fitted straight line is determined by a Hough transformation will. 13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, daß aus den angepaßten Geraden die Geometriedaten der Bildvorlagen bestimmt werden.13. The method according to any one of claims 1 to 12, characterized in that that from the adapted straight lines the geometric data of the picture templates be determined.
DE19700318A 1997-01-08 1997-01-08 Method for determining the geometry data of scanning templates Withdrawn DE19700318A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE19700318A DE19700318A1 (en) 1997-01-08 1997-01-08 Method for determining the geometry data of scanning templates
PCT/DE1997/002952 WO1998031136A1 (en) 1997-01-08 1997-12-18 Method for determining the geometrical data of scanned documents
JP10530446A JP2000508461A (en) 1997-01-08 1997-12-18 How to determine the geometric data of the original scan
EP97952733A EP0950310A1 (en) 1997-01-08 1997-12-18 Method for determining the geometrical data of scanned documents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19700318A DE19700318A1 (en) 1997-01-08 1997-01-08 Method for determining the geometry data of scanning templates

Publications (1)

Publication Number Publication Date
DE19700318A1 true DE19700318A1 (en) 1998-07-09

Family

ID=7816924

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19700318A Withdrawn DE19700318A1 (en) 1997-01-08 1997-01-08 Method for determining the geometry data of scanning templates

Country Status (4)

Country Link
EP (1) EP0950310A1 (en)
JP (1) JP2000508461A (en)
DE (1) DE19700318A1 (en)
WO (1) WO1998031136A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1229494A2 (en) * 2001-01-17 2002-08-07 Fuji Photo Film Co., Ltd. Method, apparatus and program storage medium for determining the outline of a scanned image
DE19957389B4 (en) * 1998-11-25 2004-07-15 Advantest Corp. Product summation and inclination detection device
FR2945649A1 (en) * 2009-05-18 2010-11-19 St Ericsson Sa St Ericsson Ltd METHOD AND DEVICE FOR PROCESSING A DIGITAL IMAGE
DE10064043B4 (en) * 1999-12-22 2013-07-04 Sagem Communications Image scanning method with a scanner and scanning device with automatic determination of the zone to be scanned

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4238749B2 (en) * 2004-03-10 2009-03-18 カシオ計算機株式会社 Image processing apparatus, image projection apparatus, image processing method, and program
JP2005267457A (en) * 2004-03-19 2005-09-29 Casio Comput Co Ltd Image processing device, imaging apparatus, image processing method and program
JP4801551B2 (en) 2006-09-27 2011-10-26 富士通株式会社 Image area detection method, program, and apparatus
CN113191272A (en) * 2021-04-30 2021-07-30 杭州品茗安控信息技术股份有限公司 Engineering image identification method, identification system and related device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3335657C2 (en) * 1982-10-01 1989-12-28 Canon K.K., Tokio/Tokyo, Jp
US5054098A (en) * 1990-05-21 1991-10-01 Eastman Kodak Company Method of detecting the skew angle of a printed business form
DE3014979C2 (en) * 1979-04-20 1993-09-09 Canon K.K., Tokio/Tokyo, Jp
DE4311172C2 (en) * 1992-04-06 1996-03-28 Ricoh Kk Method and device for identifying a skew angle of a document image
US5528387A (en) * 1994-11-23 1996-06-18 Xerox Corporation Electronic image registration for a scanner

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50100931A (en) * 1973-12-31 1975-08-11
JPS61282978A (en) * 1985-06-07 1986-12-13 Toyota Motor Corp Shape deciding device
JPH07113969B2 (en) * 1986-03-05 1995-12-06 キヤノン株式会社 Image processing method
US4774569A (en) * 1987-07-24 1988-09-27 Eastman Kodak Company Method for adaptively masking off a video window in an overscanned image
US5214294A (en) * 1991-04-19 1993-05-25 Fuji Photo Film Co., Ltd. Scan reading method including density measuring and edge detection
JPH0820367B2 (en) * 1991-04-19 1996-03-04 株式会社イナックス Tile unit inspection method
JPH05258146A (en) * 1992-03-13 1993-10-08 Glory Ltd Correction device for oblique running data of paper sheet or the like
JPH05344318A (en) * 1992-06-10 1993-12-24 Canon Inc Picture inputting device
US5568571A (en) * 1992-12-14 1996-10-22 University Microfilms, Inc. Image enhancement system
JPH06314339A (en) * 1993-04-27 1994-11-08 Honda Motor Co Ltd Image rectilinear component extracting device
US5818976A (en) * 1993-10-25 1998-10-06 Visioneer, Inc. Method and apparatus for document skew and size/shape detection
JPH07220066A (en) * 1994-01-28 1995-08-18 Matsushita Electric Ind Co Ltd Picture processor
JPH08294007A (en) * 1995-04-20 1996-11-05 Mita Ind Co Ltd Image processing unit

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3014979C2 (en) * 1979-04-20 1993-09-09 Canon K.K., Tokio/Tokyo, Jp
DE3335657C2 (en) * 1982-10-01 1989-12-28 Canon K.K., Tokio/Tokyo, Jp
US5054098A (en) * 1990-05-21 1991-10-01 Eastman Kodak Company Method of detecting the skew angle of a printed business form
DE4311172C2 (en) * 1992-04-06 1996-03-28 Ricoh Kk Method and device for identifying a skew angle of a document image
US5528387A (en) * 1994-11-23 1996-06-18 Xerox Corporation Electronic image registration for a scanner

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
08191391 A *
JP Patents Abstracts of Japan: 08191390 A *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19957389B4 (en) * 1998-11-25 2004-07-15 Advantest Corp. Product summation and inclination detection device
DE10064043B4 (en) * 1999-12-22 2013-07-04 Sagem Communications Image scanning method with a scanner and scanning device with automatic determination of the zone to be scanned
EP1229494A2 (en) * 2001-01-17 2002-08-07 Fuji Photo Film Co., Ltd. Method, apparatus and program storage medium for determining the outline of a scanned image
EP1229494A3 (en) * 2001-01-17 2003-12-03 Fuji Photo Film Co., Ltd. Method, apparatus and program storage medium for determining the outline of a scanned image
US6813382B2 (en) 2001-01-17 2004-11-02 Fuji Photo Film Co., Ltd. Image outline determination method, image outline determination apparatus, image outline determination program storage medium, image input apparatus and image input program storage medium
EP1699015A2 (en) * 2001-01-17 2006-09-06 Fuji Photo Film Co., Ltd. Image outline determination method, image outline determination apparatus, image outline determination program storage medium, image input apparatus and input program storage medium
EP1699015A3 (en) * 2001-01-17 2006-10-18 Fuji Photo Film Co., Ltd. Image outline determination method, image outline determination apparatus, image outline determination program storage medium, image input apparatus and input program storage medium
FR2945649A1 (en) * 2009-05-18 2010-11-19 St Ericsson Sa St Ericsson Ltd METHOD AND DEVICE FOR PROCESSING A DIGITAL IMAGE
WO2010133547A1 (en) * 2009-05-18 2010-11-25 St-Ericsson Sa (St-Ericsson Ltd) Method and device for processing a digital image

Also Published As

Publication number Publication date
EP0950310A1 (en) 1999-10-20
JP2000508461A (en) 2000-07-04
WO1998031136A1 (en) 1998-07-16

Similar Documents

Publication Publication Date Title
DE19842572B4 (en) Method for the automatic removal of image defects
DE10081029B4 (en) Image editing to prepare a textual analysis
DE69629888T2 (en) Image processing method and image recognition and pixel processing system
DE69432585T2 (en) Method and device for selecting text and / or non-text blocks in a stored document
DE69728127T2 (en) Apparatus and method for extracting an object in an image
DE69734694T2 (en) Automatic image cropping
DE4002298C2 (en) Method and device for the automatic correction of color casts in electronic image processing
DE60020038T2 (en) Method for processing a numerical image
DE2948341A1 (en) METHOD FOR PROCESSING IMAGE ELEMENTS AND DEVICE FOR PROCESSING AN IMAGE DATA SERIES
DE69925354T2 (en) Image processing system to reduce vertical patterns on scanned images
CH628158A5 (en) METHOD AND DEVICE FOR TESTING COPY DOCUMENTS.
DE19956158A1 (en) Image binarisation method for scanned greytone images e.g. newspaper article, uses 2 different conversion methods for providing 2 binary images from scanned greytone image, combined to provide output binary image
DE69927239T2 (en) SYSTEM AND METHOD FOR PROCESSING PICTURES
DE102008013789A1 (en) Apparatus, method and program for eliminating character disturbances
DE10246102A1 (en) Digital image noise filtering method for personal computer, involves locating larger noise region by using image data obtained for smaller noise region, in digital image
DE19536691B4 (en) Method and device for correcting image frame errors in television filming
DE3324736A1 (en) INPUT / OUTPUT SYSTEM FOR IMAGE DISPLAY
DE3312050A1 (en) METHOD FOR PRODUCING A PHOTOGRAPHIC MASK
DE2256617C3 (en) Facility for analyzing a template
DE19700318A1 (en) Method for determining the geometry data of scanning templates
DE10307941A1 (en) System and method for automatically descreening digital images
DE19848243A1 (en) Bending angle detector for workpieces such as metal plate
DE3843322C2 (en) Image processing method and apparatus
DE4419395C2 (en) Method and device for analyzing and processing color images
DE69835739T2 (en) Determining the position and orientation of a large number of objects by means of an intelligent image input plate

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8141 Disposal/no request for examination