DE69823110T2 - Verfahren zur Dokumentwiedergabe und Zeichenextrahierung - Google Patents

Verfahren zur Dokumentwiedergabe und Zeichenextrahierung Download PDF

Info

Publication number
DE69823110T2
DE69823110T2 DE69823110T DE69823110T DE69823110T2 DE 69823110 T2 DE69823110 T2 DE 69823110T2 DE 69823110 T DE69823110 T DE 69823110T DE 69823110 T DE69823110 T DE 69823110T DE 69823110 T2 DE69823110 T2 DE 69823110T2
Authority
DE
Germany
Prior art keywords
characters
image data
document
processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69823110T
Other languages
English (en)
Other versions
DE69823110D1 (de
Inventor
John C. Fairport Handley
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Application granted granted Critical
Publication of DE69823110D1 publication Critical patent/DE69823110D1/de
Publication of DE69823110T2 publication Critical patent/DE69823110T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Description

  • Diese Erfindung betrifft allgemein Zeichenextraktion, z. B. zur Zeichenerkennung, unter Verwendung von Dokumenten und insbesondere ein Verfahren zum Wiedergeben von Dokumenten, wie z. B. Formularen, zur verbesserten Datenerkennung und Verarbeitungschritte zum Extrahieren von Zielzeichen zur Erkennung.
  • Formularverarbeitung stellt eine größere Geschäftsaktivität dar, wobei von Hand oder mit Maschine eingetragene Daten aus elektronisch abgetasteten Dokumenten automatisch extrahiert werden. Die teure Form, Daten von Hand einzutragen, hat die Entwicklung von automatischen Systemen zum Extrahieren der Daten angespornt. Ein bequemer Weg, Daten, elektronisch einzutragen, besteht darin, Benutzern zu erlauben, geschriebene Antworten in ein Formular einzutragen und dann die Daten unter Verwendung der OCR-Verfahren optisch zu erkennen. Beispiele sind die 'Census'- und 'IRS'- Steuerformulare. Typischerweise werden die Daten durch einen Operator eingegeben, aber es gibt wachsende Bemühungen, die Kosten zu senken und die Geschwindigkeit zu erhöhen, indem Formulardokumente gescannt und der handgeschriebene Text erkannt wird. Zu einem Beispiel von solchen Prozessen siehe einen Artikel von Breuel, T. M., betitelt "Recognition of handwritten responses on U. S. census forms", Document Analysis Systems, A. Lawrence Spitz, Andreas Dengle, Herausgeber, World Scientific Publishing, 27–264 (1994). Um die Erkennungsgenauigkeit zu erhöhen, werden Formulare oft als eine Anordnung von Kästchen konstruiert, in die der Benutzer Zeichen einträgt. Die Kästchen zwingen den Schreiber, Zeichen deutlich zu trennen und die Notwendigkeit der Zeichensegmentierung abzuwenden. Falsche Segmentierung trägt maßgeblich zu Erkennungsfehlern bei. Das Extrahieren handgedruckter Daten ist schwierig, sofern nicht eine Drop-out-Farbe, vielleicht Blau, verwendet wird. Dies erfordert, dass Formulare in mehrfachen Farben gedruckt werden. Eine andere Lösung ist, schwarze Kästchen zu verwenden, was den Vorteil hat, dass sie einfach und billig herzustellen sind, man aber hoch entwickelte Bildveraibeitungsschritte durchführen muss, um das Kästchen zu entfernen, wie von Ramanaprasad, V. Shin, Y-C. und Shrihari, S. N. in "Reading hand-printed addresses on IRS tax forms", in Document Recognition III, Luc M. Vincent, Lonathan J. Hull, Herausgeber, Proc. SPIE 2660, 243-250 (1996) gezeigt. Dies kann Registrieren des ursprünglichen leeren Formufars mit dem gescannten Bild und Subtrahieren des Formularbildes, um nur die Zeichen übrigzulassen, einschließen. Wenn ein Zeichenstrich mit dem Kästchen zusammenfällt, wür- de dieser Zeichenstrich leider auch entfernt werden. Dies kann die Genauigkeit der Zeichenerkennung stark verringern. Wichtig zur Kostensenkung ist eine hoch genaue optische Zeichenerkennung der Dateneinträge, weil, je mehr Fehler es gibt, desto mehr menschliche Mühe aufgewandt werden muss, um sie finden und zu korrigieren.
  • Eine Hauptquelle von Fehlern sind verschmolzene Zeichen. Dies verursacht Mehrdeutigkeit in der Interpretation. Formulare sind bestimmt, den Schreiber zu zwingen, jedes Zeichen zu trennen, wobei getrennte Zeichen genauer erkannt werden, wie von M. D. Garris und D. L. Dimmick, "Form design for high accuracy optical character recognition", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 18, Nr. 6, Juni 1996, Seiten 653–656 beschrieben. Formulare bestehen daher aus jeder Zahl von Rahmen, d. h., bezeichneten Bereichen zum Dateneintrag. Eine andere Fehlerquelle ist das Zusammenfallen von Einträgen mit den zum Führen des Schreibers benutzten Rahmen, weil der Rahmen Teile der Zeichen verfälscht, wie von M. D. Garris gezeigt. Im Stand der Technik gibt es zwei Lösungen für dieses Problem: 1) Drucken des Formulars in einer Drop-out-Farbe, die sich von der zum Zeichnen des Formulars benutzten Farbe unterscheidet, sodass das Formular und die eingetragenen Daten optisch unterschieden werden können, und 2) die Rahmen algorithmisch aus einem gescannten Formularbild entfernen und den den eingetragenen Zeichen zugefügten Schaden algorithmisch zu reparieren. Siehe M. D. Garris, "Intelligent form removal with character stroke preservation", Proc. SPIE, Vol. 2660, 1996, Seiten 321–332 und B. Yu und A. K Jain, "A generic system for form dropout", IEEE Transactions on, Pattern Recognition, Vol. 18, Nr. 11, Nov. 1996, Seiten 1127–1134, wobei beide dieses Phänomen beschreiben.
  • Die erste Lösung hat eine Anzahl von Nachteilen. Erstens, man muss ein Formular in zwei Farben herstellen, eine Farbe für die Anweisungen oder gedruckten Text und eine hellere Farbe für die Rahmen. Dies erhöht die Kosten der Formularherstellung, weil sie auf einem Zweifarben-Drucker gedruckt werden müssen. Zweitens, die Formulare müssen mittels eines Scanners mit entweder einer Glühlampe in der Farbe des Dropouts gescannt werden, oder der Scanner muss ein Farbscanner sein, und das sich ergebende Bild muss verarbeitet werden, um die Farbe zu entfernen. In jedem Fall werden die Formularverarbeitungskosten erhöht. Schließlich, zweifarbige Formulare können auf Schwarz/Weiß-Kopierern nicht fotokopiert werden., Die zweite Lösung verlangt, dass das Formular algorithmisch entfernt wird. Zum Beispiel kann ein leeres Formular im Computerspeicher wiedergegeben und mit gescannten eingetragenen Bildern registriert und von dem Bild subtrahiert werden, um nur die eingetragenen Daten übrigzulassen. Die folgenden Verweise liefern mehr Hintergrund für solche Prozesse: R. Casey, D. Ferguson, K. Mohiuddin und E. Walach, "Intelligentforms processing system", Machine Vision and Applications, Vol. 5, 1992, Seiten 143–155; S. Liebowitz Taylor, R. Fritzon und J. A. Pastor, "Extraction of data from preprinted forms", Machine Vision and Applications, Vol. 5, 1992, Seiten 211–222; US Patent Ni. 5,140,650, "Computer-implemented method for automatic extraction of data from printes forms", und US Patent Nr. 5, 542,007, erteilt an Chevion et al., am 30. Juni 1996, betitelt "Form dropout compression method which handles form white-out and writing in shaded and white-out areas of the form". Dies verlangt, dass entweder eine leere Version des Formulars eingescannt wird, oder ein Modell des Formulars im Computerspeicher vorliegt. Man kann auch das Formular durch sorgfältiges Löschen entlang horizontaler und vertikaler Linien entfernen (s. Garris und Yu). In jedem Fall werden Zeicheneinträge durch das Linienentfernen beschädigt Striche müsswn mittels sorgfältig aufgestellter Regeln repariert werden. In den Fällen, wo ein Strich mit einer Rahmenlinie zusammenfällt, in dies unmöglich. Herkömmlich, wenn keine Drop-out-Farbe benutzt wird, muss man die Formularkästchen irgendwie aus einem gescannten Bild entfernen. Dies kann auch durch Subtrahieren (XOR) des ursprünglichen Formularbildes von einem gescannten Bild getan werden. Auf diese Weise kann man jedoch Teile der Zeichenbilder verlieren. Hoch entwickelte Bildverarbeitungsverfahren sind noch immer erforderlich, um die Zeichenbilder zu bewahren, und diese Verfahren arbeiten dürftig.
  • Die Möglichkeit des Erkennens handgeschriebener Zeichen mittels Unterscheiden zwischen gedruckten Strukturen ist durch Dokumente, einschließlich FR A-2737930 und IBM Technical Disclosure Bulletin, Vol. 15, Nr. 10, (Hamburgen), beschrieben worden. Jedoch offenbart keines ein bequemes Verfahren zur Implementierung von Strukturerkennung.
  • Was optische Zeichenerkennung angeht, ist OCR der Prozess zum Umwandeln fotonischer oder elektronischer Darstellungen eines Zeichenformulars in eine symbolische Form. In modernen Systemen werden die Daten im Computerspeicher gehalten, sei es auf einer Festplatte oder in einem Direktzugriffsspeicher. Die symbolische Darstellung kann dann gespeichert und editiert werden. Der Prozess besteht aus drei Schritten: Scannen, Merkmalextraktion und Klassifizierung. Der erste Schritt findet statt, indem eine lichtempfindliche Einrichtung verwendet wird, um ein auf einem Substrat gedrucktes Zeichen in elektronische Impulse umzuwandeln und als eine Matrix in einem Prozessorspeicher zu speichern. Das Zeichen könnte auch mit magnetischer Tinte gedruckt werden und mit einer geeigneten Einrichtung abgetastet werden. Schritt zwei besteht aus dem Extrahieren von Merkmalen aus dem als Matrix dargestellten Zeichenbild. Wählen eines guten Merkmalsatzes, um unter einem Satz von Zeichen zu unterscheiden, seien sie von Maschine (wie beim Maschineschreiben oder Setzen) oder von Menschenhand gedruckt, ist und war ein aktives Feld von Forschung und Entwicklung gewesen, wie in der Arbeit von S. Mori, C. Y. Suen und K. Yamamoto, "Historical Review of OCR research und development", Proceedings of the IEEE, Vol. 80, Nr. 7, 1992, Seiten 1029–1058 gezeigt. Schritt drei wendet eine Entscheidungsregel auf das beob achtete extrahierte Merkmal an und weist ihm eine Klasse, d. h. einen Zeichencode, zu. Im Fall von neuralen Netzwerkverfahren mit verborgenen Schichten für OCR kommt Schritt zwei in der ersten Schicht und Schritt drei in der zweiten Schicht vor. Zu mehr Information über OCR siehe U.S. Patent Nr. 4,034,343, erteilt an Michael E. Wilmer am 5. Juli, 1997, betitelt "Optical character recognition system", das den Stand der Technik in der Raumdomäne beschreibt. U.S. Patent 3,582,884 vom 1. Juni 1971, betitelt "Multiple-scanner character reading system" beschreibt ein OCR-System auf einem Kommunikationsnetzwerk, bei dem Zeichen abgetastet und als Signale dargestellt werden. Das Decodieren der Signale in die ursprünglichen Video-Scandaten wird vor dem Erkennen vorgenommen.
  • Erfindungsgemäß wird ein Verfahren zum Extrahieren sekundärer Bilddaten aus einem vorwiedergegebenen Dokument bereitgestellt, wobei das vor-wiedergegebene Dokument unter Verwendung von Halbtonmustern von abwechselnden hoch (weiß) und tief (dunkel) gepixelten Bereichen für ausgewählte Rahmen, Zeichen und Symbole auf dem vor-wiedergegebenen Dokument erzeugt wird, dadurch gekennzeichnet, dass das Verfahren die folgenden Schritte umfasst:
    Schärfen der Bilddaten unter Verwendung einer Faltung mit wenigstens einer Maske;
    morphologisch Abschließen auf den Bilddaten mit wenigstens einem Strukturelement;
    Schwellenwertverarbeiten der morphologisch abgeschlossenen Bilddaten in ein binäres Bild und
    wiederholend Senken des Schwellenwertes, sodass, wenn mehr von dem gepixelten Bereich weiß wird, Kästen des oder der Rahmen zusammen mit einer oder mehreren unechten, zusammenhängenden Komponenten des Bildes gelöscht werden,
    während die sekundären Bilddaten zur weiteren Verarbeitung übrig bleiben.
  • Um den Nachteil des Stands der Technik bezüglich Formularwiedergabe und Zeichenerkennung zu überwinden, verwendet diese Erfindung Dokumente, die einfach Halbtöne auf billigen Druckern zusammen mit einem Satz von Bildverarbeitungschritten geringer Kompexität, wie oben beschrieben, verwenden, um die Zeichen zur Erkennung zu extrahieren.
  • Die Erfindung nutzt Strukturunterschiede zwischen Zeichenstrichen und halbgetonten Kästchen aus, während andere Verfahren Unterschiede in der optischen Dichte (z. B. Drop-out-Farbe) oder Strukturunterschiede (Heraussubtrahieren von Kästchen und Rückgewinnen von Strichen) verwenden. Dieses Verfahren kann Formularkästchen mittels eines Halbtons erzeugen, etwa des in PostScriptTM von Adobe Corporation benutzen allgegenwärtigen Halb tonschemas. In einem bevorzugten Beispiel wird ein Formular mit halbgetonten Kästchen mit hand- oder maschinegeschriebenen Zeichen von einem Benutzer ausgefüllt. Das Formular wird dann auf einem Graustufen-Scanner in einer Weise gescannt, die zwischen halbgetonten Kästchen und Zeichen des Benutzers unterscheidet. Auch wenn hangeschriebene oder nachträglich maschinegeschriebene Zeichen mit Kästchen des Formulars zusammenfallen, sind die Zeichen erkennbar, weil die halbgetonten Kästchen des Formulars während des Scannens von dem Bild subtrahiert werden. Die typologischen Merkmale aller handgeschriebenen oder maschinegeschriebenen Zeichen würden wen der Kästchen-Subtraktion selbst in Überlappungssituationen durch die halbgetonten Kästchen nicht nachteilig beeinflusst werden.
  • Das hierin beschriebene Verfahren der Formularwiedergabe überwindet alle identifizierten, Mängel. Formularrahmen, ausgewählter Text, Symbole oder Zeichen werden als schwarze und weiße Halbtöne wiedergegeben, und nachträglich geschriebene oder getippte Zeichen werden durch Ausnutzen von Strukturunterschieden zwischen den Rahmen und den neuen Zeichenstrichen extrahiert. Eine Folge von einfachen Bildverarbeitungsoperationen, die ohne weiteres in Hardware oder Software ausgeführt werden können, beseitigt die Rahmen (oder andere ausgewählte Felder), während die nachträglich hinzugefügten Zeichen unversehrt gelassen werden. Halbtöne, die dem Aussehen eine helle Farbe geben, wie in dem Dropout-Farben-Verfahren, werden durch Seitenbeschreibungssprachen wie PostScript leicht erzeugt, sodass leere Formulare zu niedrigen Kosten gedruckt und fotokopiert werden können.
  • Mit der Implementierung der offenbarten Erfindung können maßgeschneiderte Formulare mit irgendeinem verfügbaren Drucker, nicht unbedingt einem Farbdrucker, der Halbtöne hervorbringen kann, erzeugt werden. Zuverlässige Erkennung benötigt minimale Bildverarbeitungsressourcen, diese Erfindung vorausgesetzt. Das vorliegende Verfahren hat niedrige Rechenkomplexität und geringen Speicherbedart zum Extrahieren von Zeichen aus diesen halbgetonten Formularen. Daher werden niedrigpreisige individuelle Formulare erzeugt, die eine zuverlässige, billige Weise zum Extrahieren von Zielzeichen begünstigen. Handgeschriebene Formulardaten können in elektronische Form umgewandelt werden, indem das Formular gescannt wird und handgedruckte Zeichen automatisch erkannt werden.
  • Die bevorzugten Ausführung und andere Aspekte der Erfindung werden aus der folgenden ausführlichen Beschreibung der Erfindung ersichtlich werden, wenn sie in Verbindung mit den begleitenden Zeichnungen gelesen wird, die zum Zweck des Beschreibens von Ausführungen der Erfindung und nicht zum Begrenzen derselben bereitgestellt werden. Inhalt der Zeichnungen:
  • 1 veranschaulicht ein Muster eines Originalformulars, das halbgetonte Kästchen hat und handgeschriebenen Text enthält.
  • 2 veranschaulicht ein Muster der resultierenden Erkennung für das Bild von 1.
  • 3 veranschaulicht das Schärfen des Bildes von 1.
  • 4 veranschaulicht 3 nach morphologischem Abschließen.
  • 5 veranschaulicht 4 nach Schwellenwertverarbeitung.
  • 6 veranschaulicht eine Serie von Mustern für Bild 1, wenn sie bei 200, 190, 180, 170, 160 und 150 schwellenwertverarbeitet werden.
  • 7 ist ein Blockschaltbild von Modulen, die nötig sind, um Zeichenerkennung mittels der offenbarten Erfindung zustande zu bringen.
  • Das hierin offenbarte Verfahren erzeugt Formularkästen unter Verwendung von Halbtönen, wie z. B. dem in PostScriptTM verwendeten allgegenwärtigen Halbtonschema, und sorgt für die Erkennung von nachträglich hand- oder maschine geschriebenen Zeichen durch Subtrahieren der halbgetonten Formularkästen. Obwohl sich die folgende Erörterung auf Formularkästen und handgeschriebene Zeichen bezieht, muss man verstehen, dass dieses Verfahren benutzt werden kann, um jedes ausgewählte Feld, Symbol oder Text in einem Formular zu beseitigen, und nachträglich von einem Benutzer in ein Formular eingetragene Zeichen, hand- oder maschinegeschrieben, erkennen kann.
  • Mit Verweis auf 1 wird ein Feld eines Formulars mit Kästen gezeigt, das mittels Halbtonverfahren erzeugt wurde. Für dieses Beispiel wurde das Formular als eine PostScript-Datei erzeugt, auf einem 300 dpi SparcPrinter gedruckt, von einem Benutzer mit Handschrift ausgefüllt und auf einem Graustufen-Scanner mit 200 spi und 8 Bit pro Pixel gescannt. Man beachte, dass die handgeschriebenen Zeichen mit den Kästen zusammenfallen. Würde man die Kästen einfach von dem Bild subtrahieren, würden die topologischen Merkmale der Zeichen nachteilig beeinflusst werden, besonders das "E" in "PRIZE". Nach einfacher Bildverarbeitung ist das Ergebnis ein binäres Bild, das die Zeichenbilder bewahrt, wie in 2 gezeigt.
  • Im ersten Schritt wird das Originalbild von 1 mittels einer Faltung mit Maske geschärft:
    Figure 00070001
    wodurch das in 3 gezeigte Bild erzeugt wird.
  • Im nächsten Schritt wird ein morphologisches Abschließen auf dem Bild mittels eines 2 × 2 strukturierenden Elements durchgeführt, wie in "An Introduction to Nonlinear Processing", E. R. Dougherty und J. T. Astola, SPIE Press, 1994, erklärt. Da die halbgetonten Kästen abwechselnde hohe (weiße) und tiefe (dunkle) Pixeln enthalten, ist das strukturierende Element nicht imstande, in die tiefen getrennten Pixeln zu passen, passt aber in die dickeren Zeichenstriche, wie in 4 gezeigt.
  • Das abgeschlossene Bild wird schwellenwertverarbeitet, um ein binäres Bild zur anschließenden Zeichenerkennung zu erlangen, wie in 5 gezeigt.
  • Der letzte Schritt ist zum "Trocken-Reinigen" des Bildes von unechten, kleinen zusammenhängenden Komponenten oder Klacksen in dem Bild, und das Ergebnis wird in 2 gezeigt.
  • Ein einfaches Schwellenwertverarbeitungsverfahren wurde nicht so gut arbeiten. 6 zeigt eine Folge von Bildern, die bei 200, 190, 180, 170, 160 und 150 schwellenwertverarbeitet werden. Wenn der Schwellenwert gesenkt wird, sodass mehr Pixeln weiß werden, verschwinden die Kästen, aber auch die dünnen Striche auf den Zeichen. Einmal verloren, können sie nicht zurückgewonnen oder leicht abgeleitet werden.
  • Auf 7 verweisend wird ein Formular 1A, das halbgetonte Felder und nachträglich eingetragenen handgeschriebenen Text enthält (wie in 12 gezeigt), elektronisch gescannt 2. Eine Halbton-Subtraktion 3 wird dann auf dem gescannten Bild durchgeführt, um die halbgetonten Felder zu entfernen. Die Subtraktion kann während der Abtastsequenz innerhalb der Abtastsoftware oder durch Softwarebearbeitung mit einem Mikroprozessor stattfinden. Sobald die Subtraktion 3 vollendet ist, kann das durch den Abtast/Subtraktions-Prozess erzeugte Dokument weitere OCR-Verarbeitung 4 erfahren. Handgeschriebene Zeichen werden während OCR 4 erkannt und klassifiziert. Das resultierende "Dokument" 1B, das in elektronischer oder physikalischer Form sein kann, wird nur erkannte Zeichen enthalten, die in das Originalformular durch einen Benutzer eingetragenen Daten gleichen. Die erkannten Zeichen können an diesem Punkt wertere Bearbeitung oder Speicherung erfahren.

Claims (6)

  1. Verfahren zum Extrahieren sekundärer Bilddaten aus einem vor-wiedergegebenen Dokument, wobei das vor-wiedergegebene Dokument unter Verwendung von Halbtonmustern von abwechselnden hoch (weiß) und tief (dunkel) gepixelten Bereichen für ausgewählte Rahmen, Zeichen und Symbole auf dem vor-wiedergegebenen Dokument erzeugt wird, dadurch gekennzeichnet, dass das Verfahren die folgenden Schritte umfasst: Schärfen der Bilddaten unter Verwendung einer Faltung mit wenigstens einer Maske; morphologisch Abschließen auf den Bilddaten mit wenigstens einem Strukturelement; Schwellenwertverarbeiten der morphologisch abgeschlossenen Bilddaten in ein binäres Bild, und wiederholend Senken des Schwellenwertes, sodass, wenn mehr von dem gepixelten Bereich weiß wird, Kästen des oder der Rahmen zusammen mit einer oder mehreren unechten, zusammenhängenden Komponenten des Bildes gelöscht werden, während die sekundären Bilddaten zur weiteren Verarbeitung übrig bleiben.
  2. Verfahren nach Anspruch 1, wobei die sekundären Bilddaten handgeschriebene Zeichen umfassen.
  3. Verfahren nach Anspruch 1 oder 2, wobei die sekundären Bilddaten in elektonisches Format umgewandelt werden können durch: a) elektronisches Abtasten des Dokuments, b) Beseitigen der halbgetonten Muster auf dem Dokument unter Verwendung des in Anspruch 1 beschriebenen Verfahrens, und c) Bereitstellen von übrig gebliebenen, nicht-halbgetonten Zeichen zur weiteren elektronischen Verarbeitung des Dokuments.
  4. Verfahren nach Anspruch 3, wobei die weitere elektronische Verarbeitung des Dokuments Zeichenerkennung umfasst.
  5. Verfahren nach Anspruch 3 oder 4, wobei die weitere elektronische Verarbeitung des Dokuments Speicherung der übrig gebliebenen, nicht-halbgetonten Zeichen umfasst.
  6. Mikroprozesser, der programmiert ist, um das Verfahren des Extrahierens von sekundären Bilddaten nach Anspruch 1 durchzuführen, und die nicht-halbgetonten Zeichen zur weiteren elektronischen Verarbeitung bereitzustellen.
DE69823110T 1997-08-04 1998-07-17 Verfahren zur Dokumentwiedergabe und Zeichenextrahierung Expired - Lifetime DE69823110T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US905610 1997-08-04
US08/905,610 US6023534A (en) 1997-08-04 1997-08-04 Method of extracting image data from an area generated with a halftone pattern

Publications (2)

Publication Number Publication Date
DE69823110D1 DE69823110D1 (de) 2004-05-19
DE69823110T2 true DE69823110T2 (de) 2004-08-19

Family

ID=25421137

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69823110T Expired - Lifetime DE69823110T2 (de) 1997-08-04 1998-07-17 Verfahren zur Dokumentwiedergabe und Zeichenextrahierung

Country Status (4)

Country Link
US (1) US6023534A (de)
EP (1) EP0896294B1 (de)
JP (1) JPH11110481A (de)
DE (1) DE69823110T2 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6330357B1 (en) * 1999-04-07 2001-12-11 Raf Technology, Inc. Extracting user data from a scanned image of a pre-printed form
US6654487B1 (en) * 2000-03-03 2003-11-25 Charles H. Downs, Jr. Character recognition, including method and system for processing checks with invalidated MICR lines
US6950553B1 (en) * 2000-03-23 2005-09-27 Cardiff Software, Inc. Method and system for searching form features for form identification
JP4189506B2 (ja) * 2000-06-09 2008-12-03 コニカミノルタビジネステクノロジーズ株式会社 画像処理のための装置、方法及び記録媒体
JP3867512B2 (ja) * 2000-06-29 2007-01-10 富士ゼロックス株式会社 画像処理装置および画像処理方法、並びにプログラム
US6873728B2 (en) * 2002-01-16 2005-03-29 Eastman Kodak Company Vertical black line removal implementation
JP2004145072A (ja) * 2002-10-25 2004-05-20 Riso Kagaku Corp 手書き文字フォント作成装置及び手書き文字フォント作成プログラム
US7487438B1 (en) * 2005-03-08 2009-02-03 Pegasus Imaging Corporation Method and apparatus for recognizing a digitized form, extracting information from a filled-in form, and generating a corrected filled-in form
JP5075054B2 (ja) * 2008-08-08 2012-11-14 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US8373724B2 (en) 2009-01-28 2013-02-12 Google Inc. Selective display of OCR'ed text and corresponding images from publications on a client device
US8442813B1 (en) 2009-02-05 2013-05-14 Google Inc. Methods and systems for assessing the quality of automatically generated text
US8731296B2 (en) 2011-04-21 2014-05-20 Seiko Epson Corporation Contact text detection in scanned images
US10607101B1 (en) 2016-12-14 2020-03-31 Revenue Management Solutions, Llc System and method for patterned artifact removal for bitonal images
US11526571B2 (en) * 2019-09-12 2022-12-13 International Business Machines Corporation Requesting an IP address using a non-textual based graphical resource identifier

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3582884A (en) * 1968-01-30 1971-06-01 Cognitronics Corp Multiple-scanner character reading system
US4034343A (en) * 1976-10-01 1977-07-05 Xerox Corporation Optical character recognition system
US4400738A (en) * 1981-10-30 1983-08-23 Xerox Corporation Image signal processing method and apparatus
US5140650A (en) * 1989-02-02 1992-08-18 International Business Machines Corporation Computer-implemented method for automatic extraction of data from printed forms
JP2865697B2 (ja) * 1989-03-20 1999-03-08 株式会社日立製作所 エクスチャ分離方法
US5131049A (en) * 1989-12-08 1992-07-14 Xerox Corporation Identification, characterization, and segmentation of halftone or stippled regions of binary images by growing a seed to a clipping mask
EP0461817A3 (en) * 1990-06-15 1993-11-18 American Telephone & Telegraph Image segmenting apparatus and methods
EP0472313B1 (de) * 1990-08-03 1998-11-11 Canon Kabushiki Kaisha Gerät und Verfahren zur Bildverarbeitung
US5617485A (en) * 1990-08-15 1997-04-01 Ricoh Company, Ltd. Image region segmentation system
US5696842A (en) * 1991-07-04 1997-12-09 Ricoh Company, Ltd. Image processing system for adaptive coding of color document images
US5392365A (en) * 1991-12-23 1995-02-21 Eastman Kodak Company Apparatus for detecting text edges in digital image processing
US5317646A (en) * 1992-03-24 1994-05-31 Xerox Corporation Automated method for creating templates in a forms recognition and processing system
US5680479A (en) * 1992-04-24 1997-10-21 Canon Kabushiki Kaisha Method and apparatus for character recognition
DE69331456T2 (de) * 1992-10-09 2002-11-07 Matsushita Electric Ind Co Ltd Überprüfbare optische Zeichenerkennung
JP3359390B2 (ja) * 1993-09-27 2002-12-24 株式会社リコー 空間フィルタ装置
US5542007A (en) * 1993-10-27 1996-07-30 International Business Machines Corporation Form dropout compression method which handles form white-out and writing in shaded and white-out areas of the form
FR2737930B1 (fr) * 1995-08-18 1997-10-31 Itesoft Procede et systeme de reconnaissance de caracteres manuscrits
US5815595A (en) * 1995-12-29 1998-09-29 Seiko Epson Corporation Method and apparatus for identifying text fields and checkboxes in digitized images

Also Published As

Publication number Publication date
JPH11110481A (ja) 1999-04-23
US6023534A (en) 2000-02-08
EP0896294A2 (de) 1999-02-10
DE69823110D1 (de) 2004-05-19
EP0896294A3 (de) 1999-11-03
EP0896294B1 (de) 2004-04-14

Similar Documents

Publication Publication Date Title
DE69823110T2 (de) Verfahren zur Dokumentwiedergabe und Zeichenextrahierung
DE60303202T2 (de) System und verfahren zum identifizieren und extrahieren von zeichenketten aus erfassten bilddaten
DE3926327C2 (de) Verfahren und System zum Erkennen von Zeichen auf einem Medium
US5619592A (en) Detection of highlighted regions
US5048109A (en) Detection of highlighted regions
Singh et al. Optical character recognition (OCR) for printed devnagari script using artificial neural network
DE69817171T2 (de) Verfahren und anordnung zur automatischen formulardaten-erfassung
DE4427992C2 (de) Verfahren zum Erzeugen einer Dokumenten-Darstellung aus einem Bitmap-Bild eines Dokuments
DE19530829C2 (de) Verfahren zum elektronischen Wiederauffinden von einem Dokument hinzugefügter Information
DE4311172A1 (de) Verfahren und Einrichtung zum Korrigieren der Schräge eines Vorlagenbildes sowie Vorlagensegmentierungssystem
DE19956158A1 (de) Bild-Binärisierungsverfahren auf Bereichsbasis
DE102007052622A1 (de) Verfahren zur Bildanalyse, insbesondere für ein Mobilfunkgerät
Prusty et al. Indiscapes: Instance segmentation networks for layout parsing of historical indic manuscripts
DE102008013789A1 (de) Vorrichtung, Verfahren und Programm zum Eliminieren von Zeichenstörungen
DE112021000371T5 (de) Digitale bildbearbeitung
Bataineh et al. Arabic calligraphy recognition based on binarization methods and degraded images
US8249364B2 (en) Method for resolving contradicting output data from an optical character recognition (OCR) system, wherein the output data comprises more than one recognition alternative for an image of a character
Rodrigues et al. Cursive character recognition–a character segmentation method using projection profile-based technique
US6330357B1 (en) Extracting user data from a scanned image of a pre-printed form
Hidalgo et al. Enhancement and cleaning of handwritten data by using neural networks
Asiri et al. Automatic Processing of Handwritten Arabic Forms using Neural Networks.
DE60203653T2 (de) Lauflängenbasierte verbundene Komponenten und Konturverfolgung zur Laufzeitverbesserung eines Extraktionsalgorithmus für kreisförmige Bereiche
Yu et al. A form dropout system
Sagar et al. Character recognition on palm-leaf manuscripts—a survey
DE19881155B4 (de) Verfahren zur Erkennung von Musikpartituren und computerlesbares Aufnahmemedium zur Speicherung eines Programmes zur Erkennung von Musikpartituren

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)