DE4225872C2 - Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern - Google Patents

Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern

Info

Publication number
DE4225872C2
DE4225872C2 DE4225872A DE4225872A DE4225872C2 DE 4225872 C2 DE4225872 C2 DE 4225872C2 DE 4225872 A DE4225872 A DE 4225872A DE 4225872 A DE4225872 A DE 4225872A DE 4225872 C2 DE4225872 C2 DE 4225872C2
Authority
DE
Germany
Prior art keywords
area
image
memory
images
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE4225872A
Other languages
English (en)
Other versions
DE4225872A1 (de
Inventor
Gavin Stuart Peter Miller
Eric Michael Hoffert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Computer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Computer Inc filed Critical Apple Computer Inc
Publication of DE4225872A1 publication Critical patent/DE4225872A1/de
Application granted granted Critical
Publication of DE4225872C2 publication Critical patent/DE4225872C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • H04N21/4725End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8583Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by creating hot-spots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Abstract

Das Verfahren dient zur Unterstützung der Identifikation von Objekten bei einer interaktiven Benutzerauswahl aus einer zeitlichen Sequenz von auf einer Anzeigeeinrichtung wiedergegebenen Bildern. Jedes Objekt ist durch ein Gebiet aus Pixeln eines Einzelbildes einer zeitlichen Folge von Einzelbildern definiert, wobei die zeitliche Folge als eine von mehreren zeitlich parallelen Datenspuren in einem Speicher gespeichert wird. Zusätzlich wird eine zeitlich parallele Treffer-Test-Datenspur zum Unterstützen der Identifikation von Objekten erzeugt und gespeichert, indem ein ein Objekt definierendes Gebiet identifiziert wird und dem Gebiet ein eindeutiger Gebietsidentifizierer zugeordnet wird, dann jedem Pixel in dem identifizierten Gebiet des Gebietsidentifizierers derart zugeordnet wird, daß auf den Gebietsidentifizierer mittels einer dem Pixelort entsprechenden Pixeladresse zugegriffen werden kann, die den Pixeln zugeordneten Gebietsidentifizierer in einem mit dem zugehörigen Objekt des Einzelbildes verbundenen Speicherbereich eines Treffer-Test-Einzelbildes gespeichert werden und diese drei Schritte für jedes zu identifizierende Gebiet eines Einzelbildes und nachfolgend für jedes Einzelbild der zeitlichen Folge wiederholt werden, wobei die Treffer-Test-Einzelbilder als Treffer-Test-Spur in einem entsprechend gekennzeichneten Speicherbereich gespeichert werden. Während einer Wiedergabe der Datenspur und einer Anzeige der Folge von Einzelbildern (70) wird mit Hilfe einer ...

Description

Objektauswahlverfahren gestatten es einem Benutzer, ein einzelnes Objekt aus einer Gruppe von Objekten in einem Bild auszuwählen. Eine Möglichkeit der Objektauswahl beruht auf der Bestimmung desjenigen Zeilensegments auf einer zweidi­ mensionalen Bildschirmabbildung, welches durch einen Benut­ zer ausgewählt wurde. Üblicherweise sind diese Zeilensegmen­ te unter Bildung eines Polygongebiets miteinander verbunden; aber sie können ebensogut voneinander getrennt sein. Ein "cursor picking" genanntes Verfahren, welches von J. D. Foley und A. Van Dam in "Fundamentals of Interactive Computer Graphics", Addison-Wesley Publishing Company, 1984, Seiten 200-204, beschrieben wurde, schafft umgrenzte Gebiete, die mit Hilfe einfacher Gleichungen überprüft werden können. Ein solches Schema gestattet es einem Benutzer beispielsweise, die Charakteristiken eines bestimmten Dreiecks auf einem Bildschirm auszuwählen und zu modifizieren, obwohl es viele andere Objekte, wie beispielsweise Kreise, Trapeze und be­ liebige Polygongebiete geben kann, die ebenfalls auf dem Bildschirm sichtbar sind. Ein anderes Verfahren der Objekt­ auswahl ist die Zuordnung eines Objektnamens zu jedem Objekt in einer Szene. Um ein Objekt durch Auswahl zu aktivieren, gibt der Benutzer einfach den Namen des Objekts, das er aus­ wählen möchte, ein. Dieses Verfahren hat keine geometrische Entsprechung.
Eine andere üblicherweise in interaktiven Systemen, wie beispielsweise dem HyperCardTM-Programm von Apple Computer Inc., benutzte Technik gestattet es dem Benutzer, ein recht­ winklig begrenztes Gebiet auf dem Bildschirm mit einem be­ stimmten Objekt, wie beispielsweise einem Schaltknopf oder Feld zu identifizieren. Wenn eine Auswahl getroffen wird, sieht das HyperCard-Programm nach, an welcher Stelle sich der Cursor befindet und sucht gleichzeitig nach dem Objekt (wie beispielsweise einem Schaltknopf oder einem Feld), das an dieser Stelle ein Begrenzungsrechteck aufweist. Wenn kein Begrenzungsrechteck den Ort des Cursors einschließt, wird kein Objekt ausgewählt. Wenn andererseits ein das Objekt einschließendes Begrenzungsrechteck existiert, wird das ent­ sprechende Objekt ausgewählt. Sämtliche o. g. Techniken ge­ statten keine exakte Objektauswahl bei beliebig komplexen Begrenzungen und können schwierig anzuwenden sein, wenn ver­ sucht wird, Objektbegrenzungen präzise zu identifizieren.
Einzelheitenpuffer (item buffer) werden im allgemeinen benutzt, um Bildsynthesealgorithmen, wie beispielsweise das Ray-Tracing oder das Radiosity-Verfahren, zu beschleunigen. Sie können außerdem benutzt werden, um dreidimensionale Oberflächengebiete einzelner Objekte bei der Anwendung in interaktiven Zeichen- und Beleuchtungs-Systemen zu identifi­ zieren, welche zweidimensionale Abbildungen manipulieren. Bei der Berechnung von Radiosity-Formfaktoren wird üblicher­ weise ein Einheitshalbwürfel-Algorithmus benutzt, um die Be­ rechnung zu beschleunigen. In diesem Algorithmus werden fünf Seitenflächen eines Würfels als Einzelheitenpuffer darge­ stellt, welche Objekt-Kennzeichen bzw. -Tags enthalten. Durch Zählen der Anzahl der gekennzeichneten Pixeln der Sei­ tenflächen-Abbildung wird der Formfaktor für ein bestimmtes Polygon, gesehen vom Scheitelpunkt eines anderen Polygons, berechnet. Ein solches Systems wurde von Michael F. Cohen und Donald P. Greenberg in "The Hemi-Cube: A Radiosity Solution for Complex Environments", Computer Graphics, #19, Vol. 3, Juli 1985, Seiten 31-40 beschrieben.
Das Ray-Tracing kann durch Raster-Konvertieren eines "Objekt-Tag"-Bildes in einen Einzelheitenpuffer beschleunigt werden. Dabei wird für jedes Pixel angenommen, daß der dem Pixel entsprechende Kamerastrahl das Objekt schneidet, des­ sen Tag in dem Pixel ist. Durch Benutzen eines Einzelheiten­ puffers vermeidet der Algorithmus die Ausführung irgendeines primären Strahl-Objekt-Schnittlinientests. Auf diese Weise wird die Berechnung beim Ray-Tracing effizienter. Ein sol­ ches System wurde von Hank Weghorst, Gary Hooper und Donald P. Greenberg in "Improved Computational Methods for Ray Tracing", ACM Transactions an Graphics, Vol. 3, Nr. 1, Janu­ ar 1984, Seiten 52-69, beschrieben.
In "Direct WYSIWYG Painting and Texturing an 3D Shapes" von Pat Hanrahan und Paul Haeberli, Computer Graphics, Vol. 24, Nr. 4, August 1990, Seiten 215-223, wird ein einzelnes dreidimensionales Objekt in einen "ID-Puffer" gebracht, wel­ cher die u-v-Oberflächenwerte der sichtbaren Oberfläche in dem Pixel speichert. Wenn auf das Bild gezeichnet (paint) wird, werden die Oberflächenposition und die Normalenvekto­ ren der Oberfläche durch Überprüfen des Objekt-ID-Puffers bestimmt; dann wird das Ergebnis benutzt, um die Pixel so zu schattieren, wie die Textur-Speicherabbildungen modifiziert werden. Dieses Verfahren gestattet es dem Benutzer, auf ein Bild in zwei Dimensionen zu zeichnen, und erlaubt die Modi­ fikation der Objektgeometrie oder Beleuchtung im dreidimen­ sionalen Raum. Die sich ergebende Modifikation wird im drei­ dimensionalen Raum und dann als zweidimensionale Bildschirm­ pixel berechnet, welche selektiv in den Puffer des sichtba­ ren Schirms geschrieben werden.
Aus dem US-Patent 4,985,848 ist die parallele Verarbei­ tung mehrerer Ebenen von Bilddaten bekannt, wobei die Ebenen die drei Primärfarben Rot, Grün und Blau und zusätzlich eine monochrome Overlay-Ebene umfassen. Die Overlay-Ebene gestat­ tet die zusätzliche Einblendung von Textdaten über die Farb­ bilder.
Aufgabe der Erfindung ist es, ein Verfahren zum Unter­ stützen der Identifikation von Objekten bei einer interakti­ ven Benutzerauswahl von Objekten aus einer zeitlichen Se­ quenz von Bildern zu schaffen, das eine exakte Objektauswahl bei beliebig komplexen Umgrenzungen der Objekte ermöglicht.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 gelöst.
Bei einer bevorzugten Ausführungsform des erfindungsge­ mäßen Verfahrens werden die Pixel innerhalb eines ausgewähl­ ten sichtbaren Gebiets zumindest eines das sichtbare Gebiet enthaltenden Einzelbilds aus einer Folge von in einem Speicher gespeicherter und auf einem interaktiven Display an­ zeigbarer Einzelbilder bezeichnet (labelled), so daß ein Be­ nutzer nachfolgend das ausgewählte sichtbare Gebiet auf ei­ ner pixelgenauen, einzelbildgenauen Grundlage auswählen kann. Um das ausgewählte sichtbare Gebiet innerhalb eines Einzelbildes zu bezeichnen, wird die Szene innerhalb des Einzelbildes segmentiert, um das ausgewählte sichtbare Ge­ biet zu identifizieren; dann wird jedes Pixel innerhalb des ausgewählten sichtbaren Gebiets mit einem speziellen Ge­ bietskennzeichner für das ausgewählte sichtbare Gebiet be­ zeichnet und die die Gebietskennzeichner enthaltenden Pixel in einen Einzelheitenpuffer abgebildet. Dann wird der Ein­ zelheitenpuffer komprimiert und innerhalb eines gekennzeich­ neten (labelled) Speicherabschnitts gespeichert, der mit dem gespeicherten Einzelbild verknüpft ist, von welchem der Ein­ zelheitenpuffer abgeleitet wurde. Wenn ein Benutzer nachfol­ gend ein Pixel innerhalb irgendeines Einzelbildes der Folge von Einzelbildern auswählt, wird das Pixel innerhalb des dem Pixel in dem ausgewählten Einzelbild zugeordneten gekenn­ zeichneten Speicherbereichs dekomprimiert, um den Gebiets­ kennzeichner für das ausgewählte Pixel zu bestimmen. Dieser Gebietskennzeichner wird dann für eine Reihe von Zwecken be­ nutzt, wie beispielsweise zum Identifizieren eines Gebiets innerhalb des Einzelbildes, das dem ausgewählten Pixel ent­ spricht, oder um einige auf das ausgewählte Pixel bezogene Aktivitäten auszuführen.
Vorteilhafte Weiterbildungen des erfindungsgemäßen Ver­ fahrens sind in den Unteransprüchen gekennzeichnet.
Im folgenden wird die Erfindung anhand eines in der Zeichnung dargestellten Ausführungsbeispiels näher erläu­ tert. In der Zeichnung zeigen:
Fig. 1 eine Blockdarstellung eines in Verbindung mit dem bevorzugten Ausführungsbeispiel der Erfin­ dung benutzten Computers;
Fig. 2a ein Einzelbild einer Videospur;
Fig. 2b ein Einzelbild einer zur Videospur gemäß Fig. 2a korrespondierenden Treffer-Testspur;
Fig. 3a einen Satz von Videospuren und Tonspuren;
Fig. 3b die gleichen Mehrspur-Daten wie in Fig. 3b zu­ züglich einer Treffer-Testspur;
Fig. 4a die erforderlichen Inhalte des Benutzerdaten­ abschnitts einer Treffer-Testspur gemäß dem bevorzugten Ausführungsbeispiel der Erfindung;
Fig. 4b der wählbare Inhalt des Benutzerdatenab­ schnitts der Treffer-Testspur gemäß Fig. 4a;
Fig. 5 ein Ablaufdiagramm, das die interaktive Wie­ dergabe einer Filmszenenfolge unter Benutzung der erfindungsgemäßen Treffer-Testspuren dar­ stellt; und
Fig. 6 ein Ablaufdiagramm, das die erfindungsgemäße Erzeugung von Treffer-Testspuren für Mehrspur- Filme darstellt.
Der Personalcomputer wird ein zunehmend effektiveres Werkzeug zum Präsentieren von Multimedia-Arbeiten. Viele Verfahren zum Präsentieren und Benutzen von Multimedia-In­ formationen in solchen Computern werden durch Software aus­ geführt, obwohl Hardware-Produkte zur Ausführung der glei­ chen Funktionen ebenfalls entwickelt werden könnten, wenn auch mit viel größeren Kosten. Für das bevorzugte Ausfüh­ rungsbeispiel könnte auch eine Hardware zum Implementieren der Erfindung entwickelt werden. Aber Software-Techniken, die in Verbindung mit dem Computersystem 10 gemäß Fig. 1 arbeiten, werden hierbei bevorzugt benutzt, um die Erfindung am effektivsten zu implementieren.
Der Computer 10, wie beispielsweise ein Apple-Macintosh- Computer, weist eine CPU 12, eine Ein/Ausgabe-Einheit 14, einen Speicher 16, ein Zeigergerät 18 und eine Anzeige 20 auf. Vorzugsweise ist die CPU 12 leistungsfähig genug, um eine Daten-Kompression/Dekompression durch Software bei aus­ reichenden Geschwindigkeiten auszuführen, wie dies bei­ spielsweise mit einem Motorola-68020-Mikroprozessor bei einer Taktrate von mindestens 16 MHz möglich ist. Aber es kön­ nen auch andere Prozessoren geringerer Leistungsfähigkeit, die bei niedrigeren Taktraten arbeiten, mit einer akzepta­ blen Leistung benutzt werden, wenn zusätzliche Daten-Kom­ pressions/Dekompressions-Hardware in das Computersystem 10 eingebunden wird. Die Ein/Ausgabe-Einheit 14 verbindet die CPU 12 mit Zusatzgeräten, wie beispielsweise Lautsprechern, und zusätzlichen Datenquellen und Speichern, wie bespiels­ weise einem Festplattenspeichergerät, einem CD-ROM oder ei­ nem Netzwerk großer Bandbreite. Selbst mit hocheffektiven Kompressionstechniken sind noch beträchtliche Zusatzspeicher für die erfindungsgemäßen Audio-, Video- und Treffer-Test- Spuren erforderlich. Der Speicher 16 enthält üblicherweise einige Massenspeicherarten ebenso wie RAM, obwohl andere Speicherarten mit schnellem Zugriff ebenso benutzt werden können. Das Zeigergerät 18 kann beispielsweise eine Maus, ein Trackball oder ein Stift sein. Die Anzeige 20 ist vor­ zugsweise eine Anzeige mit einer ausreichenden Auflösung, um die Videoinformationen deutlich anzuzeigen.
Die in Multimedia-Arbeiten benutzten Videodaten werden üblicherweise aus einer Serie von Einzelbildern sichtbarer Informationen gebildet, die für eine Wiedergabe durch den Computer 10 sequentiell miteinander verkettet werden. Diese Videodaten werden typischerweise in einem Zusatzspeicherge­ rät als eine Videospur gemeinsam mit anderen Arten ihnen zu­ geordneter temporärer Daten, wie beispielsweise einer Ton­ spur, gespeichert. Fig. 2a veranschaulicht ein Einzelbild 30 einer Videospur, bestehend aus einer Anzahl von unterschied­ lichen Objekten 32, die einem Betrachter auf der Anzeige 20 erscheinen. Die Videospur kann entweder als synthetisches oder durch den Computer erzeugtes Bildwerk zuvor berechnet werden oder als eine Videofolge aus analogen Videodaten di­ gitalisiert werden. Diese Videobildsequenz kann entweder in einem komprimierten oder unkomprimierten Format vorliegen. Unter "Videoeinzelbild" wird im folgenden irgendein analoges Einzelbild oder irgendein digitalisiertes Einzelbild verstanden, das mit einem Scanner oder einer Kamera aufgenommen oder mit Hilfe eines Zeichen- oder Darstellungsprogramms ge­ schaffen wurde.
In Fig. 2b ist ein "Einzelheiten-Puffer" (item buffer) genanntes Einzelbild 34 einer Abbildung dargestellt, welches als komprimierter Einzelbild-Datensatz in einer dem Vi­ deoeinzelbild 30 gemäß Fig. 2a entsprechenden Treffer-Test­ spur gespeichert ist. Im Gegensatz zu dem Einzelbild 30 der Videospur ist das zur Treffer-Testspur korrespondierende Einzelbild 34 für einen Benutzer auf der Anzeige 20 nicht sichtbar. Vielmehr ist die Treffer-Testspur - wie unten nä­ her ausgeführt wird - eine der Videospur entsprechende zu­ sätzliche Datenspur, welche die Anordnung von Objekten bzw. benutzerdefinierten Gebieten innerhalb der Videospur auf ei­ ner Pixel- und Einzelbildbasis identifiziert (im Speicher abbildet). Obwohl Fig. 2b jedes der numerierten Objekte 36 im Einzelbild 34 entsprechend einem identisch geformten Ob­ jekt 32 im Einzelbild 30 darstellt, können in der Treffer- Testspur Objekte 36 erzeugt werden, welche irgendeinem ab­ strakten, durch den Benutzer definierten, sichtbaren oder unsichtbaren Gebiet in dem Einzelbild 30 entsprechen. Wenn beispielsweise das Einzelbild 30 einen Raum mit einigen Ge­ mälden, einer offenen Tür und einer Statue darstellt, kann es wünschenswert sein, ein Objekt 36 der Treffer-Testspur jedem der Gemälde, der Statue und dem abstrakten offenen Ge­ biet der Tür zuzuordnen. Unabhängig von den durch den Benut­ zer ausgewählten Objekten oder Gebieten ist die erfindungs­ gemäße zusätzliche Treffer-Testspur höchst nützlich für das sogenannte "Objekt-Picking", bei dem der Benutzer des Compu­ ters 10 ein Objekt auf der Anzeige 20 mit Hilfe des Zeiger­ geräts 18 in irgendeinem Einzelbild einer sich bewegenden Bildsequenz auswählen kann, wobei er das System veranlaßt, eine Aktivität auf der Grundlage des ausgewählten Objekts zu initiieren. Die initiierte Aktivität kann eine von vielen unterschiedlichen Aktivitäten, wie beispielsweise die Wie­ dergabe einer getrennten Multimedia-Arbeit oder das Ausfüh­ ren einer Subroutine sein. Wie unten näher ausgeführt wird, ist die Objektauswahl sehr präzise, da die Treffer-Testdaten den sichtbaren Objekten auf Pixel- und Einzelbild-Basis ent­ sprechen.
Die Erfindung ist ideal geeignet für eine Verwendung in einem Computer 10 zur Bearbeitung von Multimedia-Computer­ programmen, wie beispielsweise einem Programm zum Manipulie­ ren verschiedener Formen von Medien, die als eine Serie von zueinander in Beziehung stehenden zeitlichen Spuren von Da­ ten (wie beispielsweise Video, Ton, usw.) dargestellt sind, wobei jede dieser Spuren um eine feste Zeitdifferenz gegenüber den anderen Spuren verschiebbar ist. Ein Satz solcher Spuren soll hier als ein Mehrspur-Film bezeichnet werden. Fig. 3a zeigt eine Dar­ stellung eines schmalen Mehrspur-Films, welcher aus einem er­ sten Satz Video- und Tonspuren 40 und einem zweiten Satz Video- und Tonspuren 42 besteht. In jedem Fall ist die zeitliche Dauer der Videospur gleich der der Tonspur. Der zweite Satz Video- und Tonspuren hat eine kürzere Dauer als der erste Satz und be­ ginnt mit einer festen Zeitverzögerung nach dem Start des er­ sten Satzes. In Fig. 3b ist der gleiche Satz von Mehrspur-Film- Daten dargestellt; darüberhinaus gibt es hier außerdem eine in dem Film gespeicherte Treffer-Testspur 44. In diesem Fall ent­ spricht die Treffer-Testspur dem ersten Satz Video- und Tonspu­ ren. Sie hat die gleiche Dauer wie der erste Satz, enthält die gleiche Anzahl von Einzelbildern wie die Videospur des ersten Satzes und identifiziert die Lage von Objekten in der Bildfolge der Videospur des ersten Satzes.
Es sei angemerkt, daß die Videospur und die ihr entspre­ chende Treffer-Testspur im allgemeinsten Fall eine Folge von beweglichen Bildern sind. Es ist jedoch auch möglich, die er­ findungsgemäße Technik auf nur eine einzige Abbildung anzuwen­ den; in diesem Fall enthält jede Spur nur ein Einzelbild. Außerdem sei angemerkt, daß die Treffer-Testspur nicht mit den gleichen Kompressionstechniken wie die Videospur komprimiert und nicht mit genau der gleichen Auflösung wie die Videospur gespeichert zu werden braucht. Die Treffer-Testspur wird vor­ zugsweise mit Hilfe einer verlustlosen Daten- oder Bildkompres­ sionstechnik komprimiert, die nicht mit der der Videospur über­ einzustimmen braucht. Zusätzlich ist es sinnvoll, eine dazwi­ schen abgetastete bzw. mit einem gröberen Raster abgetastete Version der Treffer-Testspur (beispielsweise eine Unterabta­ stung in der Größenordnung von 2 : 1 oder 4 : 1) zu verwenden, wenn die Videospur hoch komprimiert ist. In einem solchen Falle wird bei der Wiedergabe der nächste erreichbare Objektkennzeichnungswert der grob gerasterten Version der Treffer-Testspur als Objektkennzeichner benutzt. Obwohl dieses alternative Ausfüh­ rungsbeispiel nicht den pixelgenauen Vorteil der Treffer-Test­ spur mit der vollen Auflösung hat, gestattet er noch dem Benut­ zer, die meisten Objekte in der Szene mit einem akzeptablen Präzisionsniveau auszuwählen.
Bei dem bevorzugten Ausführungsbeispiel der Erfindung hat jede beliebige Spur des Mehrspur-Films optional, einen zugeord­ neten Satz von zusätzlichen Treffer-Testspur-Informationen. Diese zusätzlichen Informationen werden üblicherweise gemeinsam mit der korrespondierenden Spur des Mehrspur-Films als ein Satz von Kennzeichnungs-(Tag-), Größen- und Datenfeldern gespei­ chert, die verwendet werden, um die Manipulation der in der Treffer-Testspur enthaltenen zeitlichen Daten zu erleichtern. Da diese Felder benutzer- oder anwendungsdefiniert sind, werden sie hier als "Benutzerdaten" bezeichnet. Diese Benutzerdaten sind statisch, d. h. sie verändern sich im Verlauf der Zeit nicht. Die Organisation und Inhalte der Benutzerdaten für eine Treffer-Testspur 50 sind in Fig. 4a dargestellt. Der Treffer- Test-Tag 52 ist ein Kennzeichner, der die Spur als eine Tref­ fer-Testspur kennzeichnet. Im gegenwärtig bevorzugten Ausfüh­ rungsbeispiel der Erfindung wird das vier Zeichen lange Tag- Feld durch die Zeichen "HIT_" repräsentiert, wobei "_" ein Leerzeichen darstellt. Die Treffer-Testspur wird mit diesem Tag-Feld markiert, um die Treffer-Testspur von den Videodaten zu unterscheiden. Folglich ist der Computer 10 beim Interpre­ tieren der Spurdaten in der Lage, nur die Treffer-Testspur zu benutzen, um in der Videoszene liegende Objekte zu identifizie­ ren. Das nächste Feld in der Treffer-Testspur 50 ist die Größe des Datenfelds 54, welche die Anzahl der Informationsbytes im Datenfeld anzeigt.
Die in der Treffer-Testspur 50 enthaltenen verbleibenden Informationsabschnitte befinden sich innerhalb des Datenfelds, welches vorzugsweise aus einem Videospur-Kennzeichner 56, einem Kompressionsformat 58, der Pixel-Bittiefe 60 und den Treffer- Testdaten 62 besteht. Der Videospur-Kennzeichner 56 beschreibt die mit der Treffer-Testspur 50 korrespondierende Videospur in einem Mehrspur-Film. Die Verwendung eines Videospur-Kennzeich­ ners 56 informiert den Computer 10, welche Videospur in Verbin­ dung mit der Treffer-Testspur benutzt wird. Solche Informatio­ nen können wichtig sein, wenn es mehrere Treffer-Testspuren gibt, welche sich auf die gleiche Videospur beziehen. Das Kom­ pressionsformat 58 zeigt das zur Kompression der Treffer-Test­ daten 60 benutzte Format an.
Wie bereits gesagt, benutzt das bevorzugte Ausführungsbei­ spiel die verlustlose Datencodierung für die Treffer-Testdaten 62, obwohl eine Mehrzahl von verschiedenen Kompressionsformaten sowohl für die Videospur als auch für die Treffer-Testdaten 62 benutzt werden können. Es gibt eine Mehrzahl von anwendbaren Verfahren zur verlustlosten Codierung, einschließlich der be­ kannten Lauflängen-Codierung oder der Huffmann-Codierung. Durch Anzeigen des Kompressionsformats kann der Computer 10 sofort bestimmen, wie die Treffer-Testdaten zu dekomprimieren sind. Die Pixel-Bittiefe 60 zeigt die Pixel-Bittiefe an, bis zu wel­ cher die komprimierten Daten zu dekomprimieren sind. Dieses Merkmal gestattet die korrekte Interpretation der Wortlänge der Treffer-Testdaten 62. Es sei angemerkt, daß in der Treffer- Testspur 50 andere kompakte Beschreibungen der Objekte als Kom­ pressionstechniken benutzt werden können. Beispielsweise kann es wünschenswert sein, eine geometrische Beschreibung der Ob­ jekte in der Treffer-Testspur 50 zu speichern. Diese Liste von geometrischen Grundstrukturen für Treffer-Testgebiete würde in gleicher Weise jedem Einzelbild der Original-Videospur entspre­ chen.
Es sei außerdem angemerkt, daß die Treffer-Testspur 50 nicht alle oben beschriebenen Abschnitte zu enthalten braucht, um voll arbeitsfähig zu sein. Anstelle der Anzeige des Kompres­ sionsformats 58 oder der Pixel-Bittiefe 60 kann ein durch den Computer 10 benutztes Standardkompressionsformat verwendet wer­ den, welches diese Informationen automatisch zur Verfügung stellt. Beispielsweise kann die Erfindung aus Kompressionforma­ ten Nutzen ziehen, die durch ein Softwareprogramm, welches Mehrspur-Filme manipuliert (einschließlich Kompression und De­ kompression), angeboten werden, wodurch der Computer 10 automa­ tisch weiß, wie verschiedene Datenarten in Übereinstimmung mit verschiedenen Kompressionsformaten zu handhaben sind.
Zusätzlich zu den oben beschriebenen, innerhalb des Daten­ felds der Treffer-Testspur 50 enthaltenen Informationsabschnit­ ten gibt es weitere Informationsanteile, die darin enthalten sein können. Zwei solcher Anteile werden im folgenden unter Be­ zugnahme auf Fig. 4b beschrieben. Eine Tabelle 64 zum Zuordnen von Zeichenkettennamen zu Objekten kann benutzt werden, um ASCII-Zeichenkettennamen bestimmten Objekten in der entspre­ chenden Video- oder Tonspur zuzuordnen. Beispielsweise kann es wünschenswert sein, den Namen "Würfel" entsprechend allen in einem Würfel enthaltenen Pixeln einer Videoabbildung in der Treffer-Testspur zu speichern. Eine ähnliche Tabellenkonstruk­ tion könnte eine Liste einer Serie von Nummern und zugeordneten Namenszeichenketten enthalten, wie beispielsweise ((1, Würfel), (2, Gemälde), (3, Stuhl), (4, Flag), usw.). Diese Namen können dann weitergeleitet werden zu einer Schriftumgebung für eine weitergehende Interpretation oder Benutzung. Eine Tabelle 66 zur Zuordnung von Objekten zu Ereignissen kann in ähnlicher Weise benutzt werden, um Ereignisse bestimmten Objekten zuzu­ ordnen. Beispielsweise kann es wünschenswert sein, das Ereignis "Spiele Filmszene 3" stets dann zu initiieren, wenn ein Benut­ zer mit Hilfe der Steuerung durch das Zeigergerät 18 den Cursor auf der Anzeige 20 benutzt, um ein in einem bestimmten Objekt enthaltenes Pixel auszuwählen. Eine ähnliche Tabellenkonstruk­ tion würde eine Liste einer Serie von Nummern und ihnen zuge­ ordneter Ereigniszeichenketten enthalten, wie beispielsweise ((1, "Spiele Film X"), (2, "Spiele Ton Y"), (3, "Gehe zum Bildschirm 10"), (4, "Spiele Film Z"), usw.). Auch diese Ereignisse können dann weitergeleitet werden zu einer interpretierbaren Schriftumgebung.
Obwohl näher anhand der Fig. 5 und 6 erörtert, soll jetzt die Arbeitsweise eines Computers 10, der ein Treffer- Testspuren als Teil eines Mehrspur-Films benutzendes Programm abarbeitet, kurz beschrieben werden. Um zu bestimmen, wann auf die Daten in der Treffer-Testspur zugegriffen werden soll, be­ stimmt das Programm des Computers 10, wann ein Benutzer eine Auswahl an einer bestimmten Position des Bildschirms der An­ zeige 20 getroffen hat, wo der Cursor angezeigt wird. Das Pro­ gramm bestimmt dann, welches Einzelbild der Videosequenz aktu­ ell angezeigt wird. An dieser Stelle befragt das Programm jede Spur des Mehrspur-Films, um zu ermitteln, welche Spur den Kenn­ zeichner besitzt, der anzeigt, daß sie eine Treffer-Testspur für die angezeigte bestimmte Videospur ist. Sobald die ge­ eignete Treffer-Testspur bestimmt worden ist, wird auf das dem aktuell angezeigten Video-Einzelbild entsprechende Einzelbild in der Treffer-Testspur zugegriffen und dieses entsprechend dem Kompressionsformat, in dem es gespeichert ist, dekomprimiert.
Während der Dekompression wird nur das Gebiet am oder in der Umgebung des interessierenden Pixels dekomprimiert. Wenn das exakte Pixel für die Objektauswahl identifiziert worden ist, wird sein dekomprimierter Wert an das Programm als Kenn­ zeichner des Objekts zurückgegeben. Der Objektkennzeichner kann dann benutzt werden, um in eine Namenstabelle oder Ereignista­ belle abzubilden (map), sofern dies gewünscht ist. Wenn mit Hilfe des Objektkennzeichners in einer Namenstabelle abgebildet worden ist, wird ein ASCII-Zeichenkettenname an das Programm zurückgegeben. Wenn mit Hilfe des Objektkennzeichners in eine Ereignistabelle abgebildet worden ist, wird das "Ereignis" an das System zurückgegeben, welches das Auftreten verschiedener Ereignisse auslösen kann, wie beispielsweise das Abspielen ei­ nes Tons, die Anzeige einer Sequenz von Videoeinzelbildern oder eine Abbildung auf dem Bildschirm der Anzeige 20. Wie oben er­ wähnt, ist das auszulösende und durch das Programm zu behan­ delnde Ereignis in Form von Daten in der Ereignistabelle ent­ halten. Die Bedeutung solcher Ereignisse hängt von der Art der vom interessierenden Programm benutzten interaktiven Umgebung ab. Im bevorzugten Ausführungsbeispiel der Erfindung werden Er­ eignisse durch eine Schriftsprache höheren Niveaus interpre­ tiert.
Anhand von Fig. 5 wird im folgenden ein Ablaufdiagramm be­ schrieben, das die interaktive Wiedergabe einer Filmsequenz un­ ter Benutzung der erfindungsgemäßen Treffer-Testspuren dar­ stellt. Wenn die Einzelbilder einer sich bewegenden Bildfolge von einer Videospur durch den Computer 10 wiedergegeben werden (Block 70), testet das Programm, ob ein Mausbetätigungsereignis in dem Video-Einzelbild aufgetreten ist (Block 72). Wenn in ei­ nem Video-Einzelbild ein Mausbetätigungsereignis aufgetreten ist, wird das Video-Einzelbild X ebenso wie die Mausposition (mx, my) zur Zeit des Mausbetätigungsereignisses im Speicher 16 aufgezeichnet (Block 74). Wenn kein Mausbetätigungsereignis aufgetreten ist, kehrt das Programm zum Block 70 zurück, um mit der Wiedergabe der Filmsequenz fortzufahren. Nach dem Speichern des Video-Einzelbildes X und der Mausbetätigungsposition (mx, my) fährt das Programm fort, die Benutzerdatenfelder sämtlicher Spuren des Mehrspur-Films nach einer Spur zu durchsuchen, die den Treffer-Testspur-Kennzeichner oder -Tag "HIT_" aufweist (Block 76).
Wenn eine als Treffer-Testspur identifizierte Spur gefunden worden ist (Block 78), durchsucht das Programm die Benutzerda­ ten der Treffer-Testspur, um zu überprüfen, ob die identifi­ zierte Treffer-Testspur sich auf die aktuelle, gerade ange­ zeigte Videospur bezieht (Block 80). Wenn sich die Treffer- Testspur auf die aktuelle Videospur bezieht, bestimmt dann das Programm das Kompressionsformat Z (es sei denn, es gibt ein Standardkompressionsformat) und die Bittiefe, bis zu welcher die Daten dekomprimiert werden sollen (Block 82). Der nächste Schritt des Verfahrens ist die Dekompression des geeigneten Einzelbilds X (das dem Video-Einzelbild X in der Sequenz ent­ spricht) der Treffer-Testspur mit Hilfe des Dekompressionsver­ fahrens Z. Obwohl die auftretende Dekompression am gesamten Vi­ deoeinzelbild X ausgeführt werden kann, wird vorzugsweise nur das Gebiet um den durch den Benutzer in dem Video-Einzelbild X ausgewählten exakten Pixelort (mx, my) dekomprimiert (Block 84). Man beachte, daß der Wert des Objektkennzeichners für das ausgewählte Objekt unabhängig von der Lage des durch den Benut­ zer ausgewählten Pixels innerhalb des Objekts gleichbleibt. Ob­ wohl die Dekompression des gesamten Objekts sicher den geeigne­ ten Objektkennzeichner erzeugen würde, führt die Dekompression nur des Ortes des ausgewählten Pixels zum gleichen Ergebnis. Der Wert des Objektkennzeichners der dekomprimierten Daten am Ort des Pixels (mx, my) wird dann an das System zurückgegeben (Block 86). Wie zuvor beschrieben, können komplexere optionelle Versionen des o. g. Verfahrens die Treffer-Testdaten dekompri­ mieren und den Objektkennzeichner benutzen, um in eine Tabelle abzubilden, welche entweder einen ASCII-Namen oder ein vom Pro­ gramm auszulösendes Ereignis rückzuführen.
Anhand von Fig. 6 wird im folgenden ein Ablaufdiagramm be­ schrieben, das die Erzeugung von Treffer-Testspuren für Mehr­ spur-Filme in Übereinstimmung mit dem bevorzugten Ausführungs­ beispiel der Erfindung darstellt. Im Block 90 wird ein gerade digitalisiertes Video-Einzelbild oder ein dargestelltes Anima­ tionseinzelbild aus einer Sequenz sich bewegender Abbildungen eingegeben. Dann sieht das Programm nach, ob das Eingabe-Ein­ zelbild von einer dargestellten Animation oder von einem digi­ talisierten Video herrührt (Block 92). Wenn das Eingabe-Einzel­ bild von einer dargestellten Animation herrührt, wird ein Ein­ zelbildpuffer für das Einzelbild erzeugt, wenn die Abbildung aus der Sequenz dargestellt wird (Block 94). Wie zuvor disku­ tiert, wird dieser Einzelbildpuffer, welcher später in die Treffer-Testspur eingefügt wird, als eine Speicherabbildung sämtlicher Objekte in der Szene benutzt, indem jedes innerhalb des das Objekt definierenden Gebiets enthaltene Pixel mit einer Einzelbildnummer oder einem Objektkennzeichner bezeichnet wird. Man beachte, daß Pixel innerhalb des gleichen Objekts oder in­ teressierenden Gebiets den gleichen Objektkennzeichner enthal­ ten.
Wenn das Eingabe-Einzelbild von einem digitalisierten Video herrührt, werden die Objekte in der in dem Video-Einzelbild dargestellten Videoszene mit Hilfe von Mustererkennungstechni­ ken oder über ein manuelles Nachzeichnen des Objekts segmen­ tiert, um einen Einzelbildpuffer für diese Szene zu erzeugen (Block 96). Obwohl Mustererkennungstechniken weniger arbeitsin­ tensiv als das manuelle Objektnachzeichnen sind, kann die Ef­ fektivität der Mustererkennung und somit der Objektkennzeich­ nung in Abhängigkeit von den zu erkennenden Inhalten signifi­ kant variieren. Zusätzlich hat das manuelle Objektnachzeichnen den Vorteil, dem Benutzer das Spezifizieren von interessieren­ den "unsichtbaren" Gebieten zusätzlich zu den interessierenden sichtbaren Objekten zu ermöglichen. Unabhängig von der Art der Eingabedaten wird jeder Einzelbildpuffer, sobald er geschaffen wurde, mit Hilfe einer verlustlosen Kompression komprimiert (Block 98). Im Block 100 sieht das Programm dann nach, ob die dem Einzelbildpuffer entsprechende Videospur stärker als bis zu einer vorgegebenen Grenze, wie beispielsweise 10 : 1 komprimiert ist. Wie oben gesagt ist es bei starker Kompression der Video­ spur sinnvoll, eine unterabgetastete oder gröber gerasterte Version des Einzelbildpuffers zu verwenden, wie beispielsweise eine Unterabtastung in der Größenordnung von 2 : 1 oder 4 : 1. Es sei erneut angemerkt, daß bei Verwendung eines unterabgetaste­ ten Einzelbildpuffers geringerer Auflösung bei der Wiedergabe der nächstmögliche Objektkennzeichnungswert in der gröber ge­ rasterten Version der Treffer-Testspur als Objektkennzeichner benutzt wird.
Unabhängig von der Art des benutzten Einzelbildpuffers wer­ den im Block 106 die Abbildungen in jedem Einzelbildpuffer als komprimiertes Einzelbild in dem Treffer-Testdatenanteil der Treffer-Testspur gespeichert. Das der Treffer-Testspur entspre­ chende Videoeinzelbild wird dann in der Videospur gespeichert (Block 108). Dieses Verfahren wird für jedes Einzelbild der Se­ quenz von Abbildungen fortgesetzt, bis alle Einzelbilder der Sequenz verarbeitet sind (Block 110); dann wird der Rest der Benutzerdaten, wie beispielsweise der Treffer-Test-Tag 52, die Größe des Datenfelds 54, der Videospurkennzeichner 56, das For­ mat 58 der verlustlosen Kompression und die Pixel-Bittiefe 60, in der Treffer-Testspur 50 gespeichert (Block 112).
Es sei angemerkt, daß die Erfindung Anwendungen bei Video­ anzeige- und -manipulationstechnologien findet, wie beispiels­ weise die oben beschriebenen Multimedia-Anwendungen, aber auch auf anderen Gebieten anwendbar ist, wie beispielsweise bei Vi­ deospielen, wenn eine pixelgenaue, einzelbildgenaue Objektaus­ wahl wünschenswert ist.

Claims (17)

1. Verfahren zum Unterstützen der Identifikation von Ob­ jekten (32) bei einer interaktiven Benutzerauswahl von Ob­ jekten (32) aus einer zeitlichen Sequenz von auf einer An­ zeigeeinrichtung (20) eines Computers (10) wiedergegebenen Bildern,
wobei jedes Objekt (32) durch ein wenigstens ein Pixel aufweisendes Gebiet eines Einzelbildes (30) einer zeitlichen Folge von Einzelbildern definiert ist,
wobei die zeitliche Folge von Einzelbildern als eine von mehreren zeitlich parallelen Datenspuren (40, 42) in einem Speicher (16) gespeichert wird,
  • a) wobei eine zusätzliche zeitlich parallele Treffer- Test-Datenspur (44) zum Unterstützen der Identifikation von Objekten erzeugt und gespeichert wird (Fig. 6), indem
    • 1. ein ein Objekt definierendes Gebiet eines Ein­ zelbildes (30) identifiziert wird und dem Gebiet ein eindeu­ tiger Gebietsidentifizierer zugeordnet wird,
    • 2. jedem Pixel in dem identifizierten Gebiet der eindeutige Gebietsidentifizierer derart zugeordnet wird, daß auf den Gebietsidentifizierer mittels einer dem Pixelort entsprechenden Pixeladresse zugegriffen werden kann,
    • 3. die den Pixeln zugeordneten Gebietsidentifi­ zierer in einem mit dem zugehörigen Objekt des Einzelbilds verbundenen Speicherbereich eines Treffer-Test-Einzelbildes (34) gespeichert werden,
    • 4. die Schritte a1) bis a3) für jedes zu identi­ fizierende Gebiet eines Einzelbildes (30) und nachfolgend für jedes Einzelbild der zeitlichen Folge wiederholt werden, wobei die Treffer-Test-Einzelbilder (34) als Treffer-Test- Spur (44) in einem entsprechend gekennzeichneten Speicherbe­ reich gespeichert werden,
  • b) wobei während einer Wiedergabe der zeitlich paralle­ len Datenspuren und einer Anzeige der Folge von Einzelbildern auf der Anzeigeeinrichtung (20) mit Hilfe einer Zeiger­ einrichtung (18) von einem Benutzer ein Pixelort in einem gerade angezeigten Einzelbild ausgewählt wird,
  • c) sofern der ausgewählte Pixelort in dem ausgewählten Einzelbild in einem der in Schritt a) identifizierten Ge­ biete liegt, der gekennzeichnete Speicherbereich der Tref­ fer-Test-Spur (44) und darin das dem ausgewählten Einzelbild entsprechende Treffer-Test-Einzelbild (34) lokalisiert wer­ den, und
  • d) aus dem lokalisierten Treffer-Test-Einzelbild (34) mit Hilfe des ausgewählten Pixelorts der zugehörige Gebiets­ identifizierer gewonnen und zur Verfügung gestellt wird, der das ausgewählte Objekt identifiziert.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß ferner in einem Schritt (e) der dem Pixelort entspre­ chende Gebietsidentifizierer mit einer zusätzliche Informa­ tionen über das ausgewählte Gebiet enthaltenden Tabelle (64, 66) verglichen wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die zusätzlichen Informationen einen Namen für das aus­ gewählte Gebiet enthalten.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekenn­ zeichnet, daß die zusätzlichen Informationen eine dem ausge­ wählten Gebiet zugeordnete und durch den Computer auszufüh­ rende Aktivität spezifizieren.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Bilder Video-Einzelbilder (30) aus einer Video-Einzelbildfolge sind und daß im Schritt (a) je­ des zu identifizierende Gebiet (32) aus jedem Video-Einzel­ bild mit Hilfe eines Mustererkenners identifiziert wird.
6. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Bilder Video-Einzelbilder (30) aus einer Video-Einzelbildfolge sind und daß im Schritt a) jedes zu identifizierende Gebiet (32) aus jedem Video-Einzelbild manuell identifiziert wird.
7. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Bilder dargestellte (rendered) Ein­ zelbilder (30) aus einer dargestellten Einzelbildfolge sind und daß der Schritt a) eine Darstellung der dargestellten Einzelbilder enthält, um jedes zu kennzeichnende Gebiet (32) aus jedem dargestellten Einzelbild zu identifizieren.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß die identifizierten Gebiete (32) sicht­ baren Objekten und/oder abstrakten Gebieten innerhalb der Bilder (30) entsprechen.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß im Schritt a)
das Gebiet (32) in einen dem Bild (30) entsprechenden Einzelheitenpuffer (item buffer) (34) abgebildet; und
der Gebietsidentifizierer jedem Pixel innerhalb des Ge­ biets zugeordnet wird, um so den Pixelorten innerhalb des Bildes (30) entsprechende gekennzeichnete Pixel innerhalb des Einzelheitenpuffers (34) zu bilden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß im Schritt a3) folgende Schritte ausgeführt werden:
Komprimieren des Einzelheitenpuffers (34);
Speichern des komprimierten Einzelheitenpuffers (34) in einen gekennzeichneten Speicherbereich (50) des Speichers (16); und
Speichern eines Bildidentifizierers (56) gemeinsam mit dem komprimierten Einzelheitenpuffer (34) in dem gekenn­ zeichneten Speicherbereich (50) des Speichers (16), um den gekennzeichneten Speicherbereich des Speichers mit dem Bild zu verknüpfen.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß die Bilder zur Speicherung in dem Speicher (16) kompri­ miert werden und daß der Einzelheitenpuffer (34) mit Hilfe eines verlustlosen Kompressionsverfahrens komprimiert wird.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß ein Einzelheitenpuffer (34) normaler Auflösung benutzt Wird, wenn die Bilder mit einem Verhältnis gleich oder klei­ ner einem vorgegebenen Grenzwert komprimiert werden, und daß ein unterabgetasteter Einzelheitenpuffer (34) geringer Auf­ lösung benutzt wird, wenn die Bilder mit einem Verhältnis größer als der vorgegebene Grenzwert komprimiert werden.
13. Verfahren nach einem der Ansprüche 10 bis 12, da­ durch gekennzeichnet, daß im Schritt a3) ferner ein Spei­ cheridentifizierer (52) für den gekennzeichneten Speicherbe­ reich (50) des Speichers gemeinsam mit dem Bildidentifizie­ rer gespeichert wird, um den gekennzeichneten Speicherbe­ reich (50) des Speichers für den Computer (10) von anderen Abschnitten des Speichers (16) unterscheidbar zu machen.
14. Verfahren nach einem der Anspruche 10 bis 13, da­ durch gekennzeichnet, daß im Schritt a3) ferner ein Kompres­ sionsformatsanzeiger (58) gemeinsam mit dem Bildidentifi­ zierer zum Anzeigen eines Kompressionsformats des kompri­ mierten Einzelheitenpuffers (34) für den Computer (10) ge­ speichert wird.
15. Verfahren nach einem der Ansprüche 10 bis 14, da­ durch gekennzeichnet, daß im Schritt a3) ein Pixel-Bittie­ fenanzeiger (60) mit dem Bildidentifizierer gespeichert wird, um dem Computer beim Dekomprimieren des gekennzeichneten Pixel eine Bittiefe für jedes gekennzeichnete Pixel an­ zuzeigen.
16. Verfahren nach einem der Ansprüche 10 bis 15, da­ durch gekennzeichnet, daß im Schritt a3) ferner eine Gebiet- zu-Namen-Abbildungstabelle (64) gespeichert wird, wobei der Bildidentifizierer einen Namen für das ausgewählte Gebiet enthält, der dem Computer mitgeteilt wird, wenn das ausge­ wählte Gebiet im Schritt d) für den Computer identifiziert wird.
17. Verfahren nach einem der Ansprüche 10 bis 15, da­ durch gekennzeichnet, daß im Schritt a3) eine Gebiet-zu-Er­ eignis-Abbildungstabelle (66) gespeichert wird, wobei der Bildidentifizierer ein dem ausgewählten Gebiet zugeordnetes Ereignis enthält, das dem Computer mitgeteilt und von ihm bearbeitet wird, wenn das ausgewählte Gebiet im Schritt (d) für den Computer identifiziert wird.
DE4225872A 1991-11-12 1992-08-05 Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern Expired - Lifetime DE4225872C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US79032791A 1991-11-12 1991-11-12

Publications (2)

Publication Number Publication Date
DE4225872A1 DE4225872A1 (de) 1993-05-13
DE4225872C2 true DE4225872C2 (de) 2001-10-11

Family

ID=25150337

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4225872A Expired - Lifetime DE4225872C2 (de) 1991-11-12 1992-08-05 Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern

Country Status (3)

Country Link
US (6) US6219048B1 (de)
DE (1) DE4225872C2 (de)
FR (1) FR2683648B1 (de)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5727141A (en) 1995-05-05 1998-03-10 Apple Computer, Inc. Method and apparatus for identifying user-selectable regions within multiple display frames
US6496981B1 (en) * 1997-09-19 2002-12-17 Douglass A. Wistendahl System for converting media content for interactive TV use
EP0841610A3 (de) * 1996-11-12 2000-01-26 Adobe Systems, Inc. Auswählbare Bereiche in interaktiven Filmen
US6775417B2 (en) * 1997-10-02 2004-08-10 S3 Graphics Co., Ltd. Fixed-rate block-based image compression with inferred pixel values
EP2252071A3 (de) * 1997-12-05 2017-04-12 Dynamic Digital Depth Research Pty. Ltd. Verbesserte Bildumwandlungs- und Kodierungstechniken
US7139970B2 (en) 1998-04-10 2006-11-21 Adobe Systems Incorporated Assigning a hot spot in an electronic artwork
US6712703B2 (en) 1998-11-19 2004-03-30 Nintendo Co., Ltd. Video game apparatus and information storage medium for video game
US6612930B2 (en) 1998-11-19 2003-09-02 Nintendo Co., Ltd. Video game apparatus and method with enhanced virtual camera control
US6692357B2 (en) * 1998-11-19 2004-02-17 Nintendo Co., Ltd. Video game apparatus and method with enhanced player object action control
US6325717B1 (en) * 1998-11-19 2001-12-04 Nintendo Co., Ltd. Video game apparatus and method with enhanced virtual camera control
US6462754B1 (en) * 1999-02-22 2002-10-08 Siemens Corporate Research, Inc. Method and apparatus for authoring and linking video documents
US6621503B1 (en) * 1999-04-02 2003-09-16 Apple Computer, Inc. Split edits
US6892353B1 (en) * 1999-04-02 2005-05-10 Apple Computer, Inc. Edit to tape
KR100295610B1 (ko) * 1999-11-09 2001-07-12 장영규 동영상 편집 시스템 및 이를 이용한 객체 정보 서비스 방법
US6642940B1 (en) * 2000-03-03 2003-11-04 Massachusetts Institute Of Technology Management of properties for hyperlinked video
DE10030868A1 (de) * 2000-06-23 2002-01-10 Realspace Gmbh Verfahren, Computerprogrammprodukt, Computersystem, Netzwerkserver und Netzwerkclient zur Erzeugung einer Darstellung eines Objektes mit interaktiven Flächen in veränderlicher Ansicht
US6636237B1 (en) * 2000-07-31 2003-10-21 James H. Murray Method for creating and synchronizing links to objects in a video
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
US7143353B2 (en) * 2001-03-30 2006-11-28 Koninklijke Philips Electronics, N.V. Streaming video bookmarks
JP3970102B2 (ja) * 2001-06-28 2007-09-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US6931603B2 (en) * 2001-11-29 2005-08-16 International Business Machines Corporation Method and system for appending information to graphical files stored in specific graphical file formats
US20050075166A1 (en) * 2002-05-14 2005-04-07 Hemstreet Paul A. Media program with interactive feature
US7190839B1 (en) 2002-06-12 2007-03-13 Cadence Design System, Inc. Methods and apparatus for generating multi-level graphics data
US7212217B1 (en) * 2002-06-12 2007-05-01 Candence Design Systems, Inc. Methods and apparatus for generating pixel data for multi-layer source images
US7432939B1 (en) * 2002-07-10 2008-10-07 Apple Inc. Method and apparatus for displaying pixel images for a graphical user interface
US7082572B2 (en) * 2002-12-30 2006-07-25 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive map-based analysis of digital video content
JP4712712B2 (ja) * 2003-05-29 2011-06-29 イーエイティー.ティーブイ、インコーポレイテッド マルチメディア・コンテンツを提示するためのシステム
US20050076253A1 (en) * 2003-10-05 2005-04-07 De-Jen Lu Method of url-based power management and associated web browsing device
JP3793201B2 (ja) * 2004-01-28 2006-07-05 任天堂株式会社 ゲーム装置およびゲームプログラム
US20070260987A1 (en) * 2004-08-23 2007-11-08 Mohoney James S Selective Displaying of Item Information in Videos
JP4890459B2 (ja) * 2004-10-29 2012-03-07 イーエイティー.ティーブイ、インコーポレイテッド ビデオベースインタラクティブアプリケーションを可能にするためのシステム
US7594177B2 (en) * 2004-12-08 2009-09-22 Microsoft Corporation System and method for video browsing using a cluster index
US8667540B2 (en) * 2006-07-07 2014-03-04 Apple Partners, Lp Web-based video broadcasting system having multiple channels
US20080011819A1 (en) * 2006-07-11 2008-01-17 Microsoft Corporation Microsoft Patent Group Verification of hit testing
US20090096927A1 (en) * 2007-10-15 2009-04-16 Camp Jr William O System and method for video coding using variable compression and object motion tracking
PL2294200T3 (pl) * 2008-06-06 2015-08-31 Grasslanz Technology Ltd Nowe geny zaangażowane w biosyntezę
US8354918B2 (en) * 2008-08-29 2013-01-15 Boyer Stephen W Light, sound, and motion receiver devices
MY151478A (en) * 2009-08-10 2014-05-30 Mimos Berhad Object tracking system and method
US8438199B1 (en) 2009-09-10 2013-05-07 Bentley Systems, Incorporated System and method for identifying and highlighting a graphic element
US8600171B2 (en) * 2009-12-10 2013-12-03 Canon Kabushiki Kaisha Image labeling using parallel processing
JP4858625B2 (ja) * 2010-03-31 2012-01-18 カシオ計算機株式会社 情報表示装置及びプログラム
US20110296345A1 (en) * 2010-05-27 2011-12-01 Alcatel-Lucent Usa Inc. Technique For Determining And Indicating Strength Of An Item In A Weighted List Based On Tagging
US20110295859A1 (en) * 2010-05-27 2011-12-01 Alcatel-Lucent Usa Inc. Technique For Multi-Dimensionally Determining Strength Of An Item In A Weighted List Based On Tagging
GB2483282B (en) * 2010-09-03 2017-09-13 Advanced Risc Mach Ltd Data compression and decompression using relative and absolute delta values
US9792363B2 (en) * 2011-02-01 2017-10-17 Vdopia, INC. Video display method
US9538219B2 (en) * 2011-02-04 2017-01-03 Panasonic Intellectual Property Corporation Of America Degree of interest estimating device and degree of interest estimating method
US8458588B1 (en) 2011-02-25 2013-06-04 Google Inc. Determining content layout positions produced by a layout engine
US20120290931A1 (en) * 2011-05-13 2012-11-15 Nokia Corporation Apparatus and method for arranging supplementary information for media elements
US8730264B1 (en) 2011-09-26 2014-05-20 Google Inc. Determining when image elements intersect
JP6032467B2 (ja) * 2012-06-18 2016-11-30 株式会社日立製作所 時空間データ管理システム、時空間データ管理方法、及びそのプログラム
CN103577322B (zh) * 2012-08-08 2015-08-12 腾讯科技(深圳)有限公司 一种点击测试方法和装置
US10511649B2 (en) * 2012-11-20 2019-12-17 Pelco, Inc. Method and apparatus for efficiently prioritizing elements in a video stream for low-bandwidth transmission
WO2015017304A1 (en) * 2013-07-30 2015-02-05 Kodak Alaris Inc. System and method for creating navigable views of ordered images
KR20160024002A (ko) 2014-08-21 2016-03-04 삼성전자주식회사 비쥬얼 사운드 이미지를 제공하는 방법 및 이를 구현하는 전자 장치
US9733823B2 (en) 2015-04-01 2017-08-15 Microsoft Technology Licensing, Llc View activation via hit testing in an asynchronous windowing system
WO2018035133A1 (en) * 2016-08-17 2018-02-22 Vid Scale, Inc. Secondary content insertion in 360-degree video
CN109845277A (zh) * 2016-10-26 2019-06-04 索尼公司 信息处理装置、信息处理系统、信息处理方法和程序
WO2019246452A1 (en) * 2018-06-20 2019-12-26 Simbe Robotics, Inc Method for managing click and delivery shopping events

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4985848A (en) * 1987-09-14 1991-01-15 Visual Information Technologies, Inc. High speed image processing system using separate data processor and address generator

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4305131A (en) 1979-02-05 1981-12-08 Best Robert M Dialog between TV movies and human viewers
US4333152A (en) 1979-02-05 1982-06-01 Best Robert M TV Movies that talk back
JPS5995645A (ja) * 1982-11-24 1984-06-01 Toshiba Corp 情報整理装置
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4941111A (en) * 1986-04-18 1990-07-10 Advanced Micro Devices, Inc. Video picking and clipping method and apparatus
US4837842A (en) 1986-09-19 1989-06-06 Holt Arthur W Character and pattern recognition machine and method
US5021770A (en) * 1987-07-15 1991-06-04 Hitachi, Ltd. Image display system and data input apparatus used therein
US4847700A (en) 1987-07-16 1989-07-11 Actv, Inc. Interactive television system for providing full motion synched compatible audio/visual displays from transmitted television signals
FR2628553B1 (fr) * 1988-03-08 1990-11-09 Labo Electronique Physique Systeme graphique video muni d'un curseur graphique
JPH0229880A (ja) 1988-07-20 1990-01-31 Fujitsu Ltd ビデオレート領域分離方式
US5174759A (en) * 1988-08-04 1992-12-29 Preston Frank S TV animation interactively controlled by the viewer through input above a book page
GB8822062D0 (en) 1988-09-20 1988-10-19 Quantel Ltd Video processing
US5155806A (en) * 1989-03-15 1992-10-13 Sun Microsystems, Inc. Method and apparatus for displaying context sensitive help information on a display
US5119474A (en) * 1989-06-16 1992-06-02 International Business Machines Corp. Computer-based, audio/visual creation and presentation system and method
CA2012796C (en) * 1989-06-16 1996-05-14 Bradley James Beitel Trigger field display selection
JPH03116474A (ja) * 1989-09-28 1991-05-17 Toppan Printing Co Ltd カラオケ用cdiディスク
US5208909A (en) * 1989-10-23 1993-05-04 International Business Machines Corporation Pre-drawing pick detection in a graphics display system
US5274753A (en) * 1990-05-24 1993-12-28 Apple Computer, Inc. Apparatus for distinguishing information stored in a frame buffer
US5237648A (en) * 1990-06-08 1993-08-17 Apple Computer, Inc. Apparatus and method for editing a video recording by selecting and displaying video clips
US5317680A (en) * 1990-06-22 1994-05-31 Broderbund Software, Inc. Using regular graphic shapes to identify a pointer-selected graphic object
DE69222102T2 (de) * 1991-08-02 1998-03-26 Grass Valley Group Bedienerschnittstelle für Videoschnittsystem zur Anzeige und interaktive Steuerung von Videomaterial
US5524193A (en) * 1991-10-15 1996-06-04 And Communications Interactive multimedia annotation method and apparatus
GB2261803B (en) 1991-10-18 1995-10-11 Quantel Ltd An image processing system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4985848A (en) * 1987-09-14 1991-01-15 Visual Information Technologies, Inc. High speed image processing system using separate data processor and address generator

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
H. FRATER, M. SCHÜLLER: Das große WINDOWS 3 Buch, 3. geänderte Auflage, 1990, Data Becker ISBN 3-89011-287-0 "19. Das Zeichenprogramm Paintbrush" S. 486-514 *

Also Published As

Publication number Publication date
US7549122B2 (en) 2009-06-16
US20040080525A1 (en) 2004-04-29
US20020054173A1 (en) 2002-05-09
FR2683648B1 (fr) 1996-12-13
US6295055B1 (en) 2001-09-25
US20060230353A1 (en) 2006-10-12
US6219048B1 (en) 2001-04-17
DE4225872A1 (de) 1993-05-13
US7043694B2 (en) 2006-05-09
US7281212B2 (en) 2007-10-09
FR2683648A1 (fr) 1993-05-14
US20070019889A1 (en) 2007-01-25

Similar Documents

Publication Publication Date Title
DE4225872C2 (de) Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern
DE60022610T2 (de) Verfahren zur Animationskodierung in einer Bilddatei
DE69820093T2 (de) Hierarchisches verfahren und system für objektbasierte audiovisuelle deskriptiveetikettierung von bildern für die informationswiedergewinnung, -editierung und -manipulation
DE69636599T2 (de) Verfahren und system zur wiedergabe von grafischen objekten durch teilung in bildstücke und zusammensetzen von bildlagen zu einem wiedergabebild
DE10296401B4 (de) Verbund-Rendering von 3-D-Graphikobjekten
DE19708265B4 (de) Verfahren zum Durchsuchen einer Dokument-Bilddatenbank und Dokumentbild-Durchstöberungssystem sowie Verfahren zum Extrahieren eines Merkmalsvektors aus einem elektronisch gespeicherten Bild
DE69531421T2 (de) Darstellung des Inhalts eines einzigen Videobildes mit Anwendung von Rahmen
DE3335162C2 (de) Vorrichtung und Verfahren für graphische Darstellungen mittels Computer
DE69534331T2 (de) Verfahren und Vorrichtung zur Hervorhebung der Einzelheit einer Baumstruktur
DE69731045T2 (de) Navigation und Interaktion in strukturierten Informationsräumen
DE69629447T2 (de) Benutzerinteraktion bei Bildern mit strukturiertem Bildformat
DE60219048T2 (de) Sektionsextrahierungswerkzeug für pdf-dokumente
DE69828974T2 (de) Verfahren und system zur veränderung und aufbereitung dreidimensionaler animationen in einer nicht-linearen editionsumgebung
DE60300788T2 (de) Bild mit Feldtiefe aus Z-Pufferbilddaten und Alphamischung
DE3619420C2 (de)
DE69732089T2 (de) Vorrichtung und verfahren zur zeitlichen und räumlichen integration und verwaltung einer vielzahl von videos sowie speichermedium zur speicherung eines programms dafür
DE60122333T2 (de) Verfahren und System zur kachelweisen Bildwiedergabe
DE19817584A1 (de) Verfahren und System zur Objektsuche
DE69816200T2 (de) Bildverarbeitungsgerät zur Anzeige eines Katalogs von verschiedenen Datenarten auf verschiedene Weise
DE102010031429A1 (de) Verfahren zum Bereitstellen eines Kombinations-Videos
WO2000054167A2 (de) Such- und navigationseinrichtung für hypertext-dokumente
DE102010045744A1 (de) Durchsuchen und Extrahieren digitaler Bilder aus digitalen Videodateien
DE60008201T2 (de) Übersetzung von Daten mit elektronischen Bildern
DE60030401T2 (de) Anzeigetechniken für dreidimensionale virtuelle Realität
EP2893510B1 (de) Verfahren und bildverarbeitungsanlage zum entfernen eines visuellen objektes aus einem bild

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: APPLE INC., CUPERTINO, CALIF., US

R071 Expiry of right
R071 Expiry of right