WO2006126391A1 - コンテンツ処理装置及びコンテンツ処理方法、並びにコンピュータ・プログラム - Google Patents

コンテンツ処理装置及びコンテンツ処理方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
WO2006126391A1
WO2006126391A1 PCT/JP2006/309378 JP2006309378W WO2006126391A1 WO 2006126391 A1 WO2006126391 A1 WO 2006126391A1 JP 2006309378 W JP2006309378 W JP 2006309378W WO 2006126391 A1 WO2006126391 A1 WO 2006126391A1
Authority
WO
WIPO (PCT)
Prior art keywords
telop
frame
topic
detected
content processing
Prior art date
Application number
PCT/JP2006/309378
Other languages
English (en)
French (fr)
Inventor
Takao Okuda
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US11/658,507 priority Critical patent/US20090066845A1/en
Priority to KR1020077001835A priority patent/KR101237229B1/ko
Publication of WO2006126391A1 publication Critical patent/WO2006126391A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/743Browsing; Visualisation therefor a collection of video files or sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/785Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/7854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Definitions

  • the present invention relates to a content processing apparatus and content processing method for performing processing such as indexing on video content obtained by recording of television broadcast, and a computer program, in particular, and more particularly to recorded video content
  • the present invention relates to a content processing apparatus and a content processing method for determining scene switching according to a topic (that is, a topic) taken up in a program and dividing or classifying each scene, and a computer program.
  • a content processing apparatus for detecting switching of a video content's topic using telops included in video, dividing the content into topics, and indexing the content.
  • the present invention relates to a content processing method and a computer program, and more particularly, to a content processing device and a content processing method for detecting a topic with a relatively small amount of processing while using telops included in video, and a computer program.
  • Broadcast technology encompasses a wide range of technologies, including signal processing and transmission / reception, and audio and video information processing.
  • the penetration rate of television is installed in almost all homes, and the broadcast content delivered from each broadcasting station is viewed by an unspecified number of people. Also, as another form of viewing broadcast content, the received content may be recorded once by the viewer side and played back at a desired time.
  • HDDs node 'disks' drives
  • PCs personal 'computers
  • An HDD is a device capable of random 'access to recorded data. Therefore, when playing back recorded content, as in the case of conventional video 'tapes', it is not necessary to simply play back recorded programs in order of head power (or a specific program in a program) Scenes and specific corners) forces can also start playback directly.
  • a receiver (TV or video recording / playback device) equipped with a large-capacity storage such as a disk device is used to receive broadcast content, temporarily store it in the receiver, and play back it in Called "type broadcast".
  • a server type broadcast system a user who needs to watch in real time such as a normal television reception can watch a broadcast program at a time according to his convenience.
  • a scene 'change detection method which detects that the scene of an image has changed when it is too large (see, for example, Patent Document 1).
  • Patent Document 1 When creating a histogram, a certain number is distributed and added to the relevant level and the adjacent levels on both sides, and then the result of the new histogram is calculated by standardizing, and this new By detecting that the scene of the image of every two screens has changed using the calculated histogram, it is possible to detect the scene change correctly also for the faded image. [0009] While doing so, the scene 'change points are very numerous during the show.
  • a proposal has been made for a broadcast program content menu creating apparatus that detects telops in a frame as a characteristic image part, extracts video data consisting of only telops, and automatically creates a menu indicating the contents of the broadcast program.
  • a broadcast program content menu creating apparatus that detects telops in a frame as a characteristic image part, extracts video data consisting of only telops, and automatically creates a menu indicating the contents of the broadcast program.
  • edge detection edge detection
  • edge calculations are expensive.
  • the amount of calculation becomes huge because edge calculation is performed in every frame.
  • the same device can The main purpose is to automatically create a program menu of a news program using a telop, and the detected telop power also identifies changes in the topic of the program, and performs video indexing using the topic. is not. That is, how should video indexing be performed using the information of the telop detected from the frame, and solve the problem.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-282318
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2002-271741
  • Patent Document 3 Japanese Patent Application Laid-Open No. 2004-364234
  • the object of the present invention is to discriminate a scene change according to a topic (a topic) taken up in a program and recorded video content, and preferably perform video indexing by dividing it into scenes. It is an object of the present invention to provide an excellent content processing apparatus and content processing method, and a computer program that can
  • An object of the present invention is to provide an excellent content processing apparatus and method, and a computer program.
  • a further object of the present invention is to provide an excellent content processing apparatus and content processing method, and a computer capable of detecting a topic with a relatively small amount of processing while using a telop included in video. To provide the program.
  • a first aspect of the present invention is a content processing apparatus for processing video content which is a time-series force of an image frame, which is to be processed
  • a scene change detection unit for detecting a scene change point at which a scene changes significantly due to switching of an image frame from video content
  • a topic detection unit that detects, from video content to be processed, a section in which the same stationary telop appears across a plurality of continuous image frames;
  • An index storage unit for storing index information related to the time of each section in which the same static telop appears, detected by the topic detection unit;
  • a content processing apparatus comprising:
  • a viewing mode in which broadcast content such as a television program is received and temporarily stored in a receiver for force reproduction is becoming common.
  • broadcast content such as a television program
  • server-based broadcasting system enables recording of programs for several tens of hours, only scenes where users are interested are searched for scenes.
  • ⁇ style is effective. In order to perform scene search and digest viewing on such recorded content, it is necessary to index the video.
  • the video content power has been generally indexed by detecting scene 'change points, but there are a large number of scene' change points in the program, which is desirable for the user. It is considered as a habit that is not suitable for indexing.
  • a scene change point is detected from the video content to be processed, and the frame that goes back and forth at each scene change point is used to detect the scene change point. It detects whether the telop has appeared in the position. Then, when the appearance of the tick is detected, the section in which the same still tick is appearing is detected, thereby minimizing the opportunity of the edge detection processing for extracting the tick, and minimizing the tovik Processing load for detection can be reduced.
  • the topic detection unit creates an average image of frames in front of and after a scene change point, for example, in 1 second, and performs telop detection on the average image. If the telop continues to be displayed before and after the scene change, by making the average image, the terror part will be clear and the other part will be blurred, so the telop detection accuracy is high. You can This telop detection can be performed by edge detection, for example.
  • the topic detection unit compares the frame in front of the scene 'change point where the telop is detected with the telop area, and detects the position where the telop area disappears from the telop area as the start position of the topic. Do.
  • the scene 'change point force where a telop is detected also compares the rear frame and the telop area, and also detects the position where the telop area disappears as the end position of the topic. Whether or not the telop area power has disappeared, for example, the average color for each color element in the telop area is calculated for each frame to be compared, and the Euclidean distance of these average colors between the frames is set to a predetermined threshold value. It can be determined with less processing load depending on whether it has exceeded. Of course, by using the same method as the well-known scene change detection in the telop area, it is possible to more precisely detect the disappearance position of the telop.
  • an alternative is to use edge information to determine the presence or absence of a tape. That is, for each frame to be compared, an edge image in the telop area is determined, and the presence of the telop in the telop area is determined based on the comparison result of the edge images in the telop area between the frames. Specifically, for each frame to be compared, an edge image in the telop area is determined, and it is determined that the telop has disappeared when the number of pixels of the edge image detected in the telop area is sharply reduced. When the change in is small, it can be determined that the same telop continues to appear. Incidentally, it can be determined that a new telop has appeared when the number of pixels in the edge image has rapidly increased.
  • the number of edge images does not change much even if the telop changes. Therefore, even if the change in the number of pixels of the edge image in the telop area is small between frames, the respective edge images are ANDed with each corresponding edge pixel, and the result image is obtained. If the number of edge pixels in the image is rapidly reduced (eg, one-third or less), it is possible to estimate that the telop has changed, that is, the start or end position of the telop.
  • the topic detection unit may detect the telop start position and end position force detected by the topic detection unit.
  • the false detection may be reduced by determining the appearance time of the tag and determining that it is a topic only when the appearance time of the telop is a predetermined time or more.
  • the topic detection unit may determine whether the telop is a necessary telop based on the size or position information of the telop area in which the telop is detected in the frame.
  • the telop detection is performed in consideration of the position information and the size at which the telop appears in the video frame. False positives can be reduced.
  • a second aspect of the present invention is a computer program written in a computer readable form so as to execute processing on video content consisting of a time series of image frames on the computer system.
  • a scene change detection procedure for detecting a scene change point at which a scene changes significantly due to switching of an image frame from video content to be processed
  • the frame before and after the scene change point detected in the scene change detection procedure is used to detect whether a telop appears at the scene change point, and the scene change point at which the telop is detected
  • An index accumulation procedure for accumulating index information related to the time of each section in which the same stationary telop appears, detected in the topic detection procedure
  • a computer program characterized in that a reproduction procedure for reproducing and outputting, and allowing a computer to execute.
  • a computer 'program' according to the second aspect of the present invention defines a computer 'program written in computer readable form so as to realize predetermined processing on the computer' system.
  • the computer system by installing the computer program according to the second aspect of the present invention into the computer system, the computer system In this case, a cooperative action is exhibited, and the same action and effect as the content processing apparatus according to the first aspect of the present invention can be obtained.
  • the present invention it is possible to detect topic switching of video content using telops included in video, divide the content for each topic, and preferably perform video indexing.
  • An excellent content processing apparatus and content processing method, and a computer program can be provided.
  • the present invention for example, it becomes possible to divide a recorded television program into topics.
  • users can efficiently view programs such as digest viewing.
  • the user can, for example, look at the beginning of a topic to confirm when playing back recorded content, and can easily skip to the next topic if not interested.
  • editing work such as cutting out only the topic that you want to keep.
  • FIG. 1 is a view schematically showing a functional configuration of a video content processing apparatus 10 according to an embodiment of the present invention.
  • FIG. 2 is a view showing an example of a screen configuration of a television program including a telop area.
  • FIG. 3 is a flowchart showing a procedure of topic detection processing for detecting a section in which the same static telop appears from video content.
  • FIG. 4 is a diagram for explaining a mechanism for detecting a telop as well as an average image strength before and after a scene change point.
  • Fig. 5 shows a mechanism to detect telops of average image power before and after the scene change point. It is a figure for demonstrating.
  • FIG. 6 is a view for explaining a mechanism for detecting a telop as well as an average image strength before and after a scene change point.
  • FIG. 7 is a view for explaining a mechanism for detecting a telop as well as an average image strength before and after a scene change point.
  • FIG. 8 is a diagram showing a configuration example of a telop detection area in a video frame having an aspect ratio of 720 ⁇ 480 pixels.
  • FIG. 9 is a diagram showing detection of the start position of a topic from a frame 'sequence.
  • FIG. 10 is a flow chart showing a processing procedure for detecting the start position of a topic from a frame 'sequence.
  • FIG. 11 is a diagram showing how a topic end position is detected from a frame sequence.
  • FIG. 12 is a flow chart showing a processing procedure for detecting the end position of the topic from the frame sequence.
  • FIG. 1 schematically shows a functional configuration of a video content processing apparatus 10 according to an embodiment of the present invention.
  • the illustrated video content processing apparatus 10 includes a video storage unit 11, a scene change detection unit 12, a topic detection unit 13, an index storage unit 14, and a reproduction unit 15.
  • the video storage unit 11 demodulates and stores a broadcast wave, and stores video content downloaded from an information resource via the Internet.
  • the video storage unit 11 can be configured using a hard disk recorder or the like.
  • the scene change detection unit 12 takes out video content to be subject to topic detection from the video storage unit 11 and tracks a scene (scene or scene) in successive image frames.
  • the scene change detection unit 11 can be configured by applying the scene change detection method disclosed in Japanese Patent Application Laid-Open No. 2004-282318, which is already assigned to the present applicant.
  • the histogram of the components that make up the image is created for the images of two screens in one continuous field or one frame, and the sum of the differences is calculated and greater than the set threshold Detect a scene change point due to a scene change in the image.
  • the topic detection unit 12 detects a section in which the same static tape appears from the video content to be subjected to topic detection, and outputs the section as a section in which the same topic is continued in the same video content. .
  • the telop displayed in a frame is important in specifying or estimating the topic of the broadcast program in the display section.
  • the number of frames to be edge-detected is minimized as much as possible based on the scene change point where the video content force is detected, and the section in which the same stationary telop appears is detected.
  • the section in which the same stationary telop appears can be regarded as a period during which the same topic continues in the broadcast program, and it can be treated as one block with division of the video content or with the video index. Be considered suitable for digest viewing. Details of the topic detection process will be given later.
  • the index storage unit 14 stores time information related to each section in which the same stationary telop appears, which is detected by the topic detection unit 11.
  • the following table shows an example of the configuration of time information stored in the index storage unit 14.
  • a record is provided for each detected section, and the title of the topic corresponding to the section and the start time and end time of the section are recorded in the record.
  • index information can be described using a general structural description language such as XML (extensible Markup Language).
  • the topic title can be the title of the video content (or broadcast program) or the text information of the displayed telop.
  • the playback unit 15 takes out the video content instructed to be played back from the video storage unit 11, decodes it, demodulates it, and outputs video and sound.
  • the playback unit 15 acquires appropriate index information by the content name of the index storage unit 14 at the time of content playback and associates the index information with the content. For example, when a certain topic is selected from the index information managed in the index storage unit 14, the corresponding video content is extracted from the video storage unit 11 and is described as index information. The section up to the end time is reproduced and output.
  • the present embodiment it is determined whether a telop appears at the corresponding position using frames that precede and follow at each scene change point detected by the scene change detection unit 12. To detect Then, when the appearance of the telop is detected, the section in which the same stationary telop appears is detected, so the opportunity of the edge detection processing for extracting the telop is minimized and the topic detection is performed. Processing load can be reduced.
  • the topic detection unit 13 detects an interval in which such a static telop appears, and indexes the detected interval as one topic.
  • FIG. 3 illustrates, in the form of a flowchart, a procedure of topic detection processing for detecting, from the video content, a section in which the same static telop appears, in the topic detection unit 13.
  • the frame at the first scene change point is extracted (step S1), and an average image of a frame one second after the scene change point and a frame one second before the scene change point Are generated (step S2), and telop detection is performed on this average image (step S3).
  • step S1 the frame at the first scene change point is extracted (step S1), and an average image of a frame one second after the scene change point and a frame one second before the scene change point Are generated (step S2), and telop detection is performed on this average image (step S3).
  • the frame used to create the average image is not limited to the frame one second before and after the scene change point. It's important that the scene is a frame before and after the change point, and you want to use more frames to create an average image.
  • FIG. 4 to 6 illustrate how a telop is detected from an average image before and after a scene change point. Since the scene changes greatly between the frames before and after the scene change point, averaging causes the images to overlap with each other and blurs as if it were alpha-blended. On the other hand, when the same static telop continues to appear before and after the scene change point, the telop part remains clear, and as shown in FIG. Relatively emphasized. Therefore, it is possible to extract the telop area with high accuracy by the edge detection process. On the other hand, when the telop area appears only before or after the scene change point (or when the stationary tep changes), as shown in FIG. Since the telop area is also blurred, it is not necessary to detect the telop erroneously.
  • telops are characterized in that their luminance is higher than that of the background. Therefore, it is possible to apply a method for detecting telops using edge information. For example, ⁇ UV conversion is performed on the input image, and edge calculation is performed on the ⁇ component.
  • edge calculation technique for example, a telop information processing method described in Japanese Patent Laid-Open No. 2004-343352 already assigned to the present applicant, or an artificial picture described in Japanese Patent Laid-Open No. 2004-318256. An image extraction method can be applied.
  • step S4 when the average image power can also detect a telop (step S4), among the detected rectangular areas, those which satisfy the following conditions, for example, are extracted as a telop area.
  • FIG. 8 shows a configuration example of a telop detection area in a video frame having an aspect ratio of 720 ⁇ 480 pixels.
  • FIG. 9 illustrates how the start position of the topic is detected from the frame 'sequence in step S5.
  • the telop areas are compared by sequentially going back one frame at a time. Then, when a frame in which the telop area strength disappears is detected, a frame immediately behind it is detected as the start position of the topic.
  • FIG. 10 shows, in the form of a flowchart, a processing procedure for detecting the start position of the topic from the frame sequence in step S5.
  • step S21 the frame is obtained (step S22), and the telop areas are compared between the frames (step S23). Then, if there is no change in the telop area (No in step S24), since the telop continues to appear, the process returns to step S21, and the same process as described above is repeated. If there is a change in the telop area (Yes in step S24), it means that the telop has disappeared, so the frame immediately before that is output as the start position of the topic, and the processing routine is ended.
  • the telop area is compared in the procedure with respect to the frame following the scene 'change point where the telop is detected, and the telop area force is also one time earlier than the frame where the telop has disappeared.
  • the frame of is detected as the end position of the topic (step S6).
  • FIG. 11 illustrates how a topic's end position is detected from a frame 'sequence.
  • the telop areas are compared by advancing sequentially for each frame. Then, when the telop area force also detects a frame in which the telop has disappeared, a frame immediately before that is detected as the end position of the topic.
  • FIG. 12 illustrates, in the form of a flowchart, a processing procedure for detecting the end position of the topic from the frame sequence in step S6.
  • step S31 if there is a frame behind the current frame position (step S31), that frame is taken. Then, the telop area is compared between the frames (step S33). Then, if there is no change in the telop area (No in step S34), since the telop continues to appear, the process returns to step S31, and the same process as described above is repeated. Also, if there is a change in the telop area (Yes in step S34), it means that the telop has disappeared, so that the frame one frame after that is output as the end position of the topic, and the processing routine is ended.
  • the front and rear of the scene change point is set as the start position.
  • the position where the telop has disappeared can be detected precisely. Or, in order to reduce the processing, let's try to detect the approximate telop loss position by the following method.
  • the telop area force also determines whether the telop has disappeared. For example, for each frame to be compared, the average color of each element of RGB in the telop area is calculated, and the Euclidean distance of these average colors between the frames. It can be determined with less processing load depending on whether the force exceeds a predetermined threshold. That is, let RO, GO, and BO be the average color (average of each element of RGB) of the region of the frame of the scene 'change point, that is, the scene'
  • Scene 'change point force satisfying equation (1) It is determined that the telop disappears at the nth frame forward or backward.
  • the threshold value is, for example, 60.
  • an edge image in the telop area is determined for each frame to be compared, and it can be determined that the telop has disappeared when the number of pixels of the edge image detected in the telop area is rapidly reduced. Conversely, when the number of pixels increases rapidly, it can also be determined that a telop has appeared. Also, when the edge has a small change in the number of pixels in the image, it can be determined that the same terrorist continues to appear.
  • step S23 in the flowchart shown in FIG. 10 and step S33 in the flowchart shown in FIG. 12 the number of edge points (number of pixels) of Ed gelmgl and EdgelmgN is compared, and the number of edge points is abrupt. If it decreases (for example, one third or less), it can be estimated that the telop has disappeared (and conversely, if it increases rapidly, it can be assumed that the telop has appeared).
  • the detection accuracy can be enhanced by estimating the telop change, ie, the start or end position of the telop.
  • the telop end position force obtained in step S6 is also subtracted from the telop start position obtained in step S5 to obtain the appearance time of the telop.
  • the false detection can be reduced by determining that the topic is a topic only when the appearance time of this telop is equal to or longer than a fixed time (step S7).
  • program genre information from an EPG (Electric Program Guide) and change the threshold of appearance time according to the genre. For example, in the case of news, tickers appear for a relatively long time, so 30 seconds can be used for variety, and 10 seconds for variety.
  • step S7 the start position and the end position of the telop detected as a topic are stored in the index information storage unit 14 (step S8).
  • the topic detection unit 13 inquires of the scene change detection unit 12 to check whether or not there is a scene change point after the telop end position detected in step S6 in the video content (step S9). ). If there is no longer a scene change point after the telop end position, the entire processing routine is ended. On the other hand, if there is a scene change point after the end point of the teleop, move to the frame of the next scene change point (step S10), return to step S2, and detect the above-mentioned topic.
  • the topic detection unit 13 inquires of the scene change change unit 12 that the video content is to be displayed. Check if there is a next scene change point (step Sl l). If the next scene change point is no longer present, the entire processing routine is ended. On the other hand, if there is the next scene change point, the process moves to the frame of the next scene change point (step S10), returns to step S2, and repeats the above-described topic detection process.
  • the telop detection process is performed on the premise that telop areas are present at the four corners of the television image.
  • telop areas are present at the four corners of the television image.
  • the same telop may appear again several seconds after the telop has disappeared from the screen.
  • the telop display is interrupted or temporarily interrupted, if the following conditions are satisfied, the telop is treated as continuous (that is, the topic continues). It is possible not to generate useless indexes.
  • genre information of a television program may be acquired from the EPG, and the threshold value of the interruption time may be changed according to the genre such as news and variety.
  • the content processing apparatus can preferably index various video contents produced and edited for purposes other than television broadcasting and including telop areas representing topics.

Abstract

 映像に含まれるテロップを利用して映像コンテンツのトピックの切り替わりを検出し、トピック毎にコンテンツを分割する。  まず、映像コンテンツから画像の切り替わりによりシーンが大きく変化するシーン・チェンジ点を検出する。次いで、シーン・チェンジ点の前後1秒のフレームの平均画像を作成し、この平均画像を用いてシーン・チェンジ点でテロップが出現しているかどうかを高精度で検出する。そして、同じ静止テロップが出現している区間を検出し、同じ静止テロップが出現している各区間の時間に関するインデックス情報を作成する。  

Description

明 細 書
コンテンツ処理装置及びコンテンツ処理方法、並びにコンピュータ'プログ ラム
技術分野
[0001] 本発明は、例えばテレビ放送の録画により得られた映像コンテンツに対しインデック ス付けなどの処理を行なうコンテンツ処理装置及びコンテンツ処理方法、並びにコン ピュータ 'プログラムに係り、特に、録画した映像コンテンツを番組内で取り上げられ ている話題 (すなわちトピック)に従ってシーンの切り替わりを判別しシーン毎に分割 若しくは分類を行なうコンテンツ処理装置及びコンテンツ処理方法、並びにコンビュ 一タ.プログラムに関する。
[0002] さら〖こ詳しくは、本発明は、映像に含まれるテロップを利用して映像コンテンツのトビ ックの切り換わりを検出しトピック毎にコンテンツを分割しインデックス付けを行なうコン テンッ処理装置及びコンテンツ処理方法、並びにコンピュータ 'プログラムに係り、特 に、映像に含まれるテロップを利用しながら、比較的少ない処理量でトピックの検出を 行なうコンテンツ処理装置及びコンテンツ処理方法、並びにコンピュータ 'プログラム に関する。
背景技術
[0003] 現代の情報文明社会において、放送の役割は計り知れない。とりわけ、音響ととも に映像情報を視聴者の元に直接届けるテレビ放送の影響は大きい。放送技術は、信 号処理やその送受信、音声や映像の情報処理など、幅広い技術を包含する。
[0004] テレビの普及率は極めて高ぐほとんどすべての家庭内に設置されており、各放送 局から配信される放送コンテンツは不特定多数の人々によって視聴されている。また 、放送コンテンツを視聴する他の形態として、受信したコンテンツを視聴者側で一旦 録画しておき、好きな時間に再生するということが挙げられる。
[0005] 最近ではデジタル技術の発達により、映像や音声力 なる AVデータを大量に蓄積 することが可能になってきた。例えば、数十〜数百 GBの容量を持つ HDD (ノヽ一ド' ディスク 'ドライブ)が比較的安価に入手することが可能となり、 HDDベースの録画機 や、テレビ番組の録画 Z視聴機能を持ったパーソナル 'コンピュータ (PC)などが登 場してきている。 HDDは、記録データへのランダム 'アクセスが可能な装置である。し たがって、録画コンテンツを再生するときは、従来のビデオ'テープの場合のように、 録画しておいた番組を単に先頭力 順に再生する必要はなぐ好きな番組 (あるいは 、番組中の特定のシーンや特定のコーナー)力も直接再生を開始することができる。 ハード ·ディスク装置などの大容量ストレージを搭載した受信機 (テレビやビデオ録画 再生装置)を使用し、放送コンテンツを受信し一旦受信機内に蓄積して力 再生する という視聴形態のことを、「サーバ型放送」と呼ぶ。サーバ型放送システムによれば、 通常のテレビ受像のようなリアルタイムで視聴する必要はなぐユーザは自分の都合 のよ 、時間に放送番組を視聴することができる。
[0006] ハード'ディスクの大容量ィ匕に伴い、サーバ型放送システムにより数十時間分にも 及ぶ番組録画が可能である。このため、録画した映像コンテンツをユーザがすべて 視聴することは不可能に近ぐユーザが興味を持つ場面だけをうまくシーン検索し、 ダイジェスト視聴するというスタイル力 S、より効率的であるとともに録画コンテンツの有 効活用にもなる。
[0007] このような録画コンテンツにおけるシーン検索やダイジェスト視聴を行なうには、映 像に対しインデックス付けを行なう必要がある。映像インデックス付けの手法としては 、ビデオ信号が大きく変化したフレームをシーン'チェンジ点として検出し、インデック ス付けを行なう方法が広く知られている。
[0008] 例えば、連続した 1フィールド又は 1フレームの 2枚の画面の画像に対して、画像を 構成する成分のヒストグラムをそれぞれ作成し、それらの差分の合計値を計算して設 定した閾値よりも大きいときに画像のシーンが変化したことを検出するシーン'チェン ジ検出方法が知られている(例えば、特許文献 1を参照のこと)。ヒストグラムを作成す る際に、該当するレベルとその両側の隣接するレベルに対してある一定数を振り分け て加算し、その後規格ィ匕することによって新たなヒストグラムの結果を算出し、この新 たに算出したヒストグラムを用いて 2枚毎の画面の画像のシーンが変化したことを検 出することにより、フェード画像についても正確なシーン'チェンジを検出することが可 能となる。 [0009] し力しながら、シーン 'チェンジ点は番組中に非常に多く存在する。一般的には、番 組内で同じ話題 (すなわちトピック)を扱っている期間を一塊にして、映像コンテンツ を分割し分類することがダイジェスト視聴には適して ヽると思料されるが、同じ話題が 継続する間も頻繁にシーンが切り換わる。このため、シーン'チェンジにのみ依存した 映像インデックス付け方法では、ユーザにとって望ま 、インデックス付けを行なうこ とにはならない。
[0010] また、映像情報を用いて映像カット位置を検出するとともに、音響情報を用いて音 響クラスタリングを行な 、、映像及び音響それぞれの情報を統合してインデックスを 付与し、インデックスの情報に従ってコンテンツの編集、検索、選択視聴を行なう映像 音響コンテンツ編集装置について提案がなされている(例えば、特許文献 2を参照の こと)。この映像音響コンテンツ編集装置によれば、音響情報力 得たインデックス情 報 (音声、無音、音楽を区別)とシーン'チェンジ点を関連付けることにより、映像的に も音響的にも意味のある位置をシーンとして検出することができるとともに、無駄なシ ーン 'チェンジ点をある程度は削除することができる。し力しながら、シーン'チェンジ 点は番組中に非常に多く存在するため、トピック毎に映像コンテンツを分割すること は無理である。
[0011] 他方、ニュース番組やバラエティ番組などのテレビ放送においては、番組の制作' 編集の手法として、フレームの四隅に番組の話題を明示的あるいは暗示的に表現し たテロップを表示することが一般的に採用されて 、る。フレーム中で表示されるテロッ プは、その表示区間での放送番組のトピックを特定又は推定するための重要な手が 力りになる。したがって、映像コンテンツ力もテロップを抽出し、テロップの表示内容を 1つの指標として映像インデックス付けを行なうことが可能であると考えられる。
[0012] 例えば、フレーム中のテロップを特徴画部分として検出し、テロップだけの映像デー タを抽出して放送番組の内容を示すメニューを自動的に作成する放送番組内容メニ ユー作成装置について提案がなされている (例えば、特許文献 3を参照のこと)。フレ ーム力 テロップを検出するには通常エッジ検出をしなければならないが、エッジ計 算は処理負荷が高い。同装置では、すべてのフレームでエッジ計算を行なうため、計 算量が膨大になるという問題がある。また、同装置は、映像データ力 抽出される各 テロップを用いてニュース番組の番組メニューを自動作成することを主な目的として おり、検出されたテロップ力も番組におけるトピックの変化を特定したり、トピックを利 用して映像インデックス付けを行なったりするものではない。すなわち、フレームから 検出されたテロップの情報を利用してどのように映像インデックス付けを行なうべきか t 、う問題を解決して 、な 、。
[0013] 特許文献 1 :特開 2004— 282318号公報
特許文献 2:特開 2002— 271741号公報
特許文献 3:特開 2004 - 364234号公報
発明の開示
発明が解決しょうとする課題
[0014] 本発明の目的は、録画した映像コンテンツを番組内で取り上げられて ヽる話題 (す なわちトピック)に従ってシーンの切り換わりを判別しシーン毎に分割て映像インデッ タス付けを好適に行なうことができる、優れたコンテンツ処理装置及びコンテンツ処理 方法、並びにコンピュータ 'プログラムを提供することにある。
[0015] 本発明のさらなる目的は、映像に含まれるテロップを利用して映像コンテンツのトビ ックの切り替わりを検出し、トピック毎にコンテンツを分割し映像インデックス付けを好 適に行なうことができる、優れたコンテンツ処理装置及びコンテンツ処理方法、並び にコンピュータ 'プログラムを提供することにある。
[0016] 本発明のさらなる目的は、映像に含まれるテロップを利用しながら、比較的少な ヽ 処理量でトピックの検出を行なうことができる、優れたコンテンツ処理装置及びコンテ ンッ処理方法、並びにコンピュータ 'プログラムを提供することにある。
課題を解決するための手段
[0017] 本発明は、上記課題を参酌してなされたものであり、その第 1の側面は、画像フレー ムの時系列力 なる映像コンテンツを処理するコンテンツ処理装置であって、 処理対象となる映像コンテンツから、画像フレームの切り替わりによりシーンが大きく 変化するシーン'チェンジ点を検出するシーン'チェンジ検出部と、
処理対象となる映像コンテンツから、連続する複数の画像フレームにまたがって同 じ静止テロップが出現している区間を検出するトピック検出部と、 前記トピック検出部が検出した、同じ静止テロップが出現している各区間の時間に 関するインデックス情報を蓄積するインデックス蓄積部と、
を具備することを特徴とするコンテンツ処理装置である。
[0018] テレビ番組などの放送コンテンツを受信し一旦受信機内に蓄積して力 再生すると いう視聴形態が一般的となりつつある。ここで、ハード'ディスクの大容量ィ匕に伴い、 サーバ型放送システムにより数十時間分にも及ぶ番組録画が可能になってくると、ュ 一ザが興味を持つ場面だけをうまくシーン検索し、ダイジェスト視聴すると 、ぅスタイ ルが有効である。このような録画コンテンツにおけるシーン検索やダイジェスト視聴を 行なうには、映像に対しインデックス付けを行なう必要がある。
[0019] 従来、映像コンテンツ力もシーン 'チェンジ点を検出してインデックス付けを行なう方 法が一般的であつたが、シーン 'チェンジ点は番組中に非常に多く存在し、ユーザに とっては望まし ヽインデックス付けにはならな ヽと考えられる。
[0020] また、ニュース番組やバラエティ番組などのテレビ放送においては、フレームの四 隅に番組のトピックを表現したテロップを表示することが多 、ので、映像コンテンツか らテロップを抽出し、テロップの表示内容を 1つの指標として映像インデックス付けを 行なうことが可能である。し力しながら、映像コンテンツ力もテロップを抽出するにはフ レーム毎にエッジ検出処理を行なわなければならず、計算量が膨大になるという問題 がある。
[0021] そこで、本発明に係るコンテンツ処理装置では、まず、処理対象となる映像コンテン ッからシーン ·チェンジ点を検出し、各シーン ·チェンジ点にお 、て前後するフレーム を利用して、当該位置でテロップが出現しているかどうかを検出する。そして、テロッ プの出現が検出されたときに、同じ静止テロップが出現している区間を検出するよう にしたので、テロップを抽出するためのエッジ検出処理の機会を最小限に抑え、トビ ック検出のための処理負荷を軽減することができる。
[0022] 前記トピック検出部は、シーン.チェンジ点の前後例えば 1秒間におけるフレームの 平均画像を作成し、この平均画像に対してテロップ検出を行なうようにする。シーン' チェンジ前後でテロップが表示され続けていれば、平均画像を作ることによって、テロ ップ部分は鮮明に残り、それ以外の部分はぼやけるので、テロップ検出の精度を高 めることができる。このテロップ検出は、例えばエッジ検出により行なうことができる。
[0023] そして、前記トピック検出部は、テロップが検出されたシーン'チェンジ点から前方の フレームとテロップ領域の比較を行なって、該テロップ領域力もテロップが消えた位置 を当該トピックの開始位置として検出する。同様に、テロップが検出されたシーン'チ ェンジ点力も後方のフレームとテロップ領域の比較を行なって、該テロップ領域カもテ 口ップが消えた位置を当該トピックの終了位置として検出する。テロップ領域力もテロ ップが消えたかどうかは、例えば、比較対象となる各フレームについてテロップ領域 における色要素毎の平均色を算出し、フレーム間でこれらの平均色のユークリッド距 離が所定の閾値を超えたかどうかによつて、少ない処理負荷で判定することができる 。勿論、周知のシーン'チェンジ検出と同じ方法をテロップ領域に用いることによって 、テロップの消失位置の検出をさらに厳密に行なうことができる。
[0024] 但し、領域内で平均色を算出すると、その領域に含まれるテロップ以外の背景色の 影響を受け易いという問題がある。そこで、その代替案として、エッジ情報を用いてテ 口ップの有無を判別する方法が挙げられる。すなわち、比較対象となる各フレームに っ 、てテロップ領域におけるエッジ画像を求め、フレーム間でのテロップ領域のエツ ジ画像の比較結果に基づ 、てテロップ領域におけるテロップの存在を判定する。具 体的には、比較対象となる各フレームについてテロップ領域におけるエッジ画像を求 め、テロップ領域で検出されたエッジ画像の画素数が急激に減少したときにテロップ が消えたと判定し、該画素数の変化が少ないときには同じテロップが出現し続けてい ると判定することができる。ちなみに、エッジ画像の画素数が急激に増加したときに新 たなテロップが出現したと判定することができる。
[0025] また、テロップが変化してもエッジ画像の数があまり変化しな 、可能性もある。そこ で、フレーム間でテロップ領域のエッジ画像の画素数の変化が小さ 、場合であっても 、さらに互いのエッジ画像同士で対応するエッジ画素毎の論理積 (AND)をとり、そ の結果画像におけるエッジ画素の数が急激に減少した場合には (例えば、 3分の 1以 下)、テロップが変化した、すなわちテロップの開始又は終了位置と推定することがで きる。
[0026] また、前記トピック検出部は、検出されたテロップ開始位置及び終了位置力 テロッ プの出現時間を求め、このテロップの出現時間が一定時間以上の場合のみトピックと 判断することで、誤検出を低減するようにしてもよい。
[0027] また、前記トピック検出部は、フレーム内でテロップが検出されたテロップ領域の大 きさ又は位置情報に基づ 、て必要なテロップであるかどうかを判定するようにしてもよ い。映像フレーム中でテロップが出現する位置やその大きさは、放送業界において 大まかな慣習があり、この慣習に倣って、映像フレーム中においてテロップが出現す る位置情報や大きさを考慮してテロップ検出を行なうことで、誤検出を低減することが できる。
[0028] また、本発明の第 2の側面は、画像フレームの時系列からなる映像コンテンツに関 する処理をコンピュータ 'システム上で実行するようにコンピュータ可読形式で記述さ れたコンピュータ ·プログラムであって、前記コンピュータ ·システムに対し、
処理対象となる映像コンテンツから、画像フレームの切り替わりによりシーンが大きく 変化するシーン'チェンジ点を検出するシーン'チェンジ検出手順と、
前記シーン'チェンジ検出手順において検出されたシーン'チェンジ点の前後のフ レームを利用して、当該シーン'チェンジ点でテロップが出現しているかどうかを検出 し、テロップが検出されたシーン'チェンジ点の前後において連続する複数の画像フ レームにまたがって同じ静止テロップが出現している区間を検出するトピック検出手 順と、
前記トピック検出手順において検出した、同じ静止テロップが出現している各区間 の時間に関するインデックス情報を蓄積するインデックス蓄積手順と、
前記インデックス蓄積手順にぉ 、て蓄積されたインデックス情報の中からあるトピッ クが選択された場合に、該当する映像コンテンツのうちインデックス情報として記述さ れている開始時間から終了時間に至るまでの区間を再生出力する再生手順と、 を実行させることを特徴とするコンピュータ ·プログラムである。
[0029] 本発明の第 2の側面に係るコンピュータ 'プログラムは、コンピュータ 'システム上で 所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータ 'プログ ラムを定義したものである。換言すれば、本発明の第 2の側面に係るコンピュータ'プ ログラムをコンピュータ 'システムにインスト一ノレすることによって、コンピュータ 'システ ム上では協働的作用が発揮され、本発明の第 1の側面に係るコンテンツ処理装置と 同様の作用効果を得ることができる。
発明の効果
[0030] 本発明によれば、映像に含まれるテロップを利用して映像コンテンツのトピックの切 り替わりを検出し、トピック毎にコンテンッを分割し映像インデックス付けを好適に行な うことができる、優れたコンテンツ処理装置及びコンテンツ処理方法、並びにコンビュ ータ ·プログラムを提供することができる。
[0031] また、本発明によれば、映像に含まれるテロップを利用しながら、比較的少な!/ヽ処 理量でトピックの検出を行なうことができる、優れたコンテンツ処理装置及びコンテン ッ処理方法、並びにコンピュータ ·プログラムを提供することができる。
[0032] 本発明によれば、例えば録画したテレビ番組をトピック毎に分割することが可能に なる。テレビ番組をトピック毎に分割し映像インデックス付けすることで、ユーザはダイ ジェスト視聴などの効率的な番組の視聴が可能になる。ユーザは、録画コンテンツの 再生時に例えばトピックの冒頭部分を見て確認し、興味がなければ次のトピックに簡 単にスキップすることができる。また、録画した映像コンテンツを DVDなどに記録する 際には、残したいトピックだけを切り出すといった編集作業を簡単に行なうことができ る。
[0033] 本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する 図面に基づくより詳細な説明によって明らかになるであろう。
図面の簡単な説明
[0034] [図 1]図 1は、本発明の一実施形態に係る映像コンテンツ処理装置 10の機能的構成 を模式的に示した図である。
[図 2]図 2は、テロップ領域を含んだテレビ番組の画面構成例を示した図である。
[図 3]図 3は、映像コンテンツから、同じ静止テロップが出現している区間を検出する ためのトピック検出処理の手順を示したフローチャートである。
[図 4]図 4は、シーン'チェンジ点の前後の平均画像力もテロップを検出する仕組みを 説明するための図である。
[図 5]図 5は、シーン'チェンジ点の前後の平均画像力もテロップを検出する仕組みを 説明するための図である。
[図 6]図 6は、シーン'チェンジ点の前後の平均画像力もテロップを検出する仕組みを 説明するための図である。
[図 7]図 7は、シーン'チェンジ点の前後の平均画像力もテロップを検出する仕組みを 説明するための図である。
[図 8]図 8は、アスペクト比が 720 X 480ピクセルとなる映像フレームにおけるテロップ 検出領域の構成例を示した図である。
[図 9]図 9は、フレーム'シーケンスからトピックの開始位置を検出する様子を示した図 である。
[図 10]図 10は、フレーム 'シーケンスからトピックの開始位置を検出するための処理 手順を示したフローチャートである。
[図 11]図 11は、フレーム ·シーケンスからトピックの終了位置を検出する様子を示した 図である。
[図 12]図 12は、フレーム ·シーケンスからトピックの終了位置を検出するための処理 手順を示したフローチャートである。
符号の説明
[0035] 10· ··映像コンテンツ処理装置
11…映像蓄積部
12…シーン'チェンジ検出部
13· ··トピック検出部
14· ··インデックス蓄積部
15· ··再生部
発明を実施するための最良の形態
[0036] 以下、図面を参照しながら本発明の実施形態について詳解する。
[0037] 図 1には、本発明の一実施形態に係る映像コンテンツ処理装置 10の機能的構成を 模式的に示している。図示の映像コンテンツ処理装置 10は、映像蓄積部 11と、シー ン'チェンジ検出部 12と、トピック検出部 13と、インデックス蓄積部 14と、再生部 15を 備えている。 [0038] 映像蓄積部 11は、放送波を復調して蓄積したり、インターネット経由で情報資源か らダウンロードした映像コンテンツを蓄積したりする。例えば、ハード.ディスク.レコー ダなどを用いて映像蓄積部 11を構成することができる。
[0039] シーン'チェンジ検出部 12は、トピック検出の対象となる映像コンテンツを映像蓄積 部 11から取り出し、連続する画像フレームにおけるシーン (光景又は情景)を追跡し
、画像の切り替わりによりシーンが大きく変化する位置すなわちシーン'チェンジ点を 検出する。
[0040] 例えば、本出願人に既に譲渡されている特開 2004— 282318号公報に開示され て ヽるシーン'チェンジ検出方法を適用してシーン'チェンジ検出部 11を構成するこ とができる。すなわち、連続した 1フィールド又は 1フレームの 2枚の画面の画像に対 して、画像を構成する成分のヒストグラムをそれぞれ作成し、それらの差分の合計値 を計算して設定した閾値よりも大きいときに画像のシーンが変化したことによりシーン •チェンジ点を検出する。ヒストグラムを作成する際に、該当するレベルとその両側の 隣接するレベルに対してある一定数を振り分けて加算し、その後規格ィ匕することによ つて新たなヒストグラムの結果を算出し、この新たに算出したヒストグラムを用いて 2枚 毎の画面の画像のシーンが変化したことを検出することにより、フェード画像につい ても正確なシーン'チェンジを検出することが可能となる。
[0041] トピック検出部 12は、トピック検出の対象となる映像コンテンツから、同じ静止テロッ プが出現している区間を検出し、同映像コンテンツ内で同じトピックが継続している区 間として出力する。
[0042] ニュース番組やバラエティ番組などのテレビ放送においては、フレーム中で表示さ れるテロップは、その表示区間での放送番組のトピックを特定又は推定するための重 要な手が力りになる。しかしながら、すべてのフレームについてエッジ検出してテロッ プを抽出しようとすると計算量が膨大になってしまう。そこで、本実施形態では、映像 コンテンツ力 検出されたシーン'チェンジ点に基づいて、エッジ検出すべきフレーム 数を極力抑えて、同じ静止テロップが出現している区間を検出するようにした。同じ静 止テロップが出現している区間は、放送番組内で同じトピックが継続している期間と みなすことができ、一塊として扱うことが映像コンテンツの分割や映像インデックス付 け、ダイジェスト視聴には適していると思料される。トピック検出処理の詳細について は後述に譲る。
[0043] インデックス蓄積部 14は、トピック検出部 11が検出した、同じ静止テロップが出現し ている各区間に関する時間情報を蓄積する。下表には、インデックス蓄積部 14にお いて蓄積される時間情報の構成例を示している。同表では、検出された区間毎にレ コードが設けられ、レコードには当該区間に相当するトピックのタイトルと、区間の開 始時間及び終了時間が記録される。例えば、 XML (extensible Markup Langu age)のような一般的な構造ィ匕記述言語を用いてインデックス情報を記述することがで きる。トピックのタイトルには、映像コンテンツ (若しくは放送番組)のタイトルや、表示 されたテロップの文字情報を用いることができる。
[0044] [表 1]
[0045] 再生部 15は、再生指示された映像コンテンツを映像蓄積部 11から取り出し、これを 復号 '復調して映像及び音響出力する。本実施形態では、再生部 15は、コンテンツ 再生時にインデックス蓄積部 14力もコンテンツ名によって適切なインデックス情報を 取得し、コンテンツと関連付ける。例えば、インデックス蓄積部 14において管理される インデックス情報の中からあるトピックが選択された場合には、該当する映像コンテン ッを映像蓄積部 11から取り出し、インデックス情報として記述されて 、る開始時間か ら終了時間に至るまでの区間を再生出力する。
[0046] 続いて、トピック検出部 13において、映像コンテンツから、同じ静止テロップが出現 している区間を検出するトピック検出処理の詳細について説明する。
[0047] 本実施形態では、シーン'チェンジ検出部 12によって検出された各シーン'チェン ジ点において前後するフレームを利用して、当該位置でテロップが出現しているかど うかを検出する。そして、テロップの出現が検出されたときに、同じ静止テロップが出 現している区間を検出するようにしたので、テロップを抽出するためのエッジ検出処 理の機会を最小限に抑え、トピック検出のための処理負荷を軽減することができる。
[0048] 例えば-ユース番組やバラエティ番組と!/、つたジャンルのテレビ放送では、視聴者 の理解や賛同を得る、あるいは興味を抱力せ番組内に気持ちを引き込ませるといつ た目的で、テロップを表示する方法が採られる。その多くの場合、図 2に示すように画 面の四隅のいずれかの領域を利用して静止テロップが存在する。静止テロップは、 通常、以下に示す特徴を持つ。
[0049] (1)放送中の番組の内容を簡単に表現している(タイトル的なもの)。
(2)同じ話題の間は表示され続ける。
[0050] 例えば-ユース番組では、ある-ユースが放送されている間は、その-ユースのタイ トルが表示され続けている。トピック検出部 13では、このような静止テロップが出現し ている区間を検出し、検出された区間を 1つのトピックとしてインデックス付けを行なう 。また、検出された静止テロップを切り出してサムネイルィ匕することや、テロップの表 示を文字認識することによってトピックのタイトルを文字情報として取得することも可能 である。
[0051] 図 3には、トピック検出部 13において、映像コンテンツから、同じ静止テロップが出 現している区間を検出するためのトピック検出処理の手順をフローチャートの形式で 示している。
[0052] まず、処理対象となる映像コンテンツから、最初のシーン'チェンジ点におけるフレ ームを取り出し (ステップ S1)、シーン'チェンジ点から 1秒後のフレームと 1秒前のフ レームの平均画像を作成し (ステップ S 2)、この平均画像に対してテロップ検出を行 なう(ステップ S3)。これは、シーン'チェンジ前後でテロップが表示され続けていれば 、平均画像を作ることによって、テロップ部分は鮮明に残り、それ以外の部分はぼや けることを利用して、テロップ検出の精度を高めるためである。但し、平均画像の作成 に用いるフレームは、シーン'チェンジ点の前後 1秒のフレームに限定されるものでは ない。シーン 'チェンジ点の前後のフレームであることが重要であり、さらに多くのフレ ームを用いて平均画像を作成するようにしてもょ 、。 [0053] 図 4〜図 6には、シーン 'チェンジ点の前後の平均画像からテロップを検出する様子 を図解している。シーン'チェンジ点の前後のフレーム間では、シーンが大きく変化し ているので、平均化することで互いのイメージが重なり合い、ちょうど αブレンドされた ようにぼやけてしまう。これに対し、シーン'チェンジ点の前後でも同じ静止テロップが 出現し続けている場合には、そのテロップ部分は鮮明に残り、図 5に示すように、平 均化によりぼやけた背景部分に対して相対的に強調される。したがって、エッジ検出 処理により、高精度でテロップ領域を抽出することができる。他方、シーン'チェンジ 点の前後の 、ずれか一方でのみテロップ領域が出現する場合 (あるいは静止テロッ プが切り替わる場合)には、図 6に示すように、画像の平均化処理により背景部分と 同様にテロップ領域もぼやけてしまうので、テロップを誤って検出することはなくなる。
[0054] 一般に、テロップは背景に比べて輝度が高い特徴がある。したがって、エッジ情報 を用いてテロップの検出を行なう方法を適用することができる。例えば、入力画像を Υ UV変換し、このうち Υ成分に対してエッジ計算を行なう。エッジ計算技術として、例え ば、本出願人に既に譲渡されている特開 2004— 343352号公報に記載されている テロップ情報処理方法や、特開 2004— 318256号公報に記載されている人工的画 像の抽出方法を適用することができる。
[0055] そして、平均画像力もテロップを検出することができた場合には (ステップ S4)、検 出された矩形領域のうち、例えば以下の条件を満たすものをテロップ領域として取り 出す。
[0056] (1)一定サイズより大きい(例えば、 80 X 30画素)。
(2)テロップが表示される候補領域(図 2を参照のこと)のうち複数の領域にまたがつ ていない。
[0057] 映像フレーム中でテロップが出現する位置やテロップ文字の大きさは、放送業界に おいて大まかな慣習がある。そこで、この慣習に倣って、映像フレーム中においてテ 口ップが出現する位置情報や大きさを考慮してテロップ検出を行なうことで、誤検出を 低減することができる。図 8には、アスペクト比が 720 X 480ピクセルとなる映像フレー ムにおけるテロップ検出領域の構成例を示している。
[0058] テロップが検出されたときには、次いで、テロップが検出されたシーン'チェンジ点か ら前方のフレームに対し手順にテロップ領域の比較を行なって 、き、該テロップ領域 力 テロップが消えたフレームより時間的に 1つ後ろのフレームを当該トピックの開始 位置として検出する (ステップ S 5)。
[0059] 図 9には、ステップ S5においてフレーム 'シーケンスからトピックの開始位置を検出 する様子を図解している。同図に示すように、ステップ S3においてテロップが検出さ れたシーン'チェンジ点から前方に向かって、 1フレーム毎に順に遡ってテロップ領域 の比較を行なう。そして、テロップ領域力 テロップが消えたフレームを検出すると、そ れより 1つ後ろのフレームを当該トピックの開始位置として検出する。
[0060] また、図 10には、ステップ S5においてフレーム 'シーケンスからトピックの開始位置 を検出するための処理手順をフローチャートの形式で示している。まず、現在のフレ ーム位置の前方にフレームが存在する場合には (ステップ S21)、そのフレームを取 得し (ステップ S22)、フレーム間でテロップ領域の比較を行なう(ステップ S23)。そし て、テロップ領域に変化がなければ (ステップ S 24の No)、テロップが出現し続けてい ることになるので、ステップ S21に戻り、上述と同様の処理を繰り返す。また、テロップ 領域に変化があれば (ステップ S24の Yes)、テロップが消滅したことになるので、そ の 1つ手前のフレームをトピックの開始位置として出力し、当該処理ルーチンを終了 する。
[0061] 同様に、テロップが検出されたシーン'チェンジ点から後方のフレームに対し手順に テロップ領域の比較を行なって 、き、該テロップ領域力もテロップが消えたフレームよ り時間的に 1つ前のフレームを当該トピックの終了位置として検出する (ステップ S6)。
[0062] 図 11には、フレーム 'シーケンスからトピックの終了位置を検出する様子を図解して いる。同図に示すように、ステップ S3においてテロップが検出されたシーン'チェンジ 点から前方に向かって、 1フレーム毎に順に進行してテロップ領域の比較を行なう。 そして、テロップ領域力もテロップが消えたフレームを検出すると、それより 1つ手前の フレームを当該トピックの終了位置として検出する。
[0063] また、図 12には、ステップ S6においてフレーム 'シーケンスからトピックの終了位置 を検出するための処理手順をフローチャートの形式で示している。まず、現在のフレ ーム位置の後方にフレームが存在する場合には (ステップ S31)、そのフレームを取 得し (ステップ S32)、フレーム間でテロップ領域の比較を行なう(ステップ S33)。そし て、テロップ領域に変化がなければ (ステップ S34の No)、テロップが出現し続けてい ることになるので、ステップ S31に戻り、上述と同様の処理を繰り返す。また、テロップ 領域に変化があれば (ステップ S34の Yes)、テロップが消滅したことになるので、そ の 1つ後ろのフレームをトピックの終了位置として出力し、当該処理ルーチンを終了 する。
[0064] 図 9並びに図 11に示すようにテロップの消失位置を検出する際に、時間軸上に並 ぶフレーム ·シーケンスにつ 、て、シーン ·チェンジ点を開始位置としてのその前方及 び後方それぞれに向かってフレーム 1枚ずつテロップ領域の比較を順次行なうことで 、テロップが消えた位置を厳密に検出することができる。あるいは、処理を軽減するた めに、以下の方法でおおよそのテロップ消失位置を検出するようにしてもょ 、。
[0065] (1) MPEGのように、 Iピクチャ(フレーム内符号化画像)と数枚の Pピクチャ(フレーム 間順方向予測符号ィ匕画像)が交互に配列された符号ィ匕画像の場合において、 Iピク チヤ間で比較を行なう。
(2) 1秒毎にフレームの比較を行なう。
[0066] テロップ領域力もテロップが消えた力どうかは、例えば、比較対象となる各フレーム について、テロップ領域における RGBの各要素の平均色を算出し、フレーム間でこ れらの平均色のユークリッド距離が所定の閾値を超えた力どうかによって、少ない処 理負荷で判定することができる。すなわち、シーン'チェンジ点であるフレームのテロ ップ領域の平均色(RGBの各要素の平均)を RO 、GO 、: BO とし、シーン'チェン
avg avg avg
ジ点から n番目のフレームのテロップ領域の平均色を Rn 、Gn , Βη とすると、下
avg avg avg
式(1)を満たすシーン'チェンジ点力 前方又は後方の n番目のフレームにてテロッ プが消えたと判断する。閾値としては例えば 60とする。
[0067] [数 1]
ΛΙ 。VG - R 0avg f + {GN avg - G 0m + (BN avg - B 0M >閾値 ■■■(" また、シーン'チェンジしないフレーム区間で静止テロップが消失した場合、平均画 像をとると、図 7に示すように、背景となるシーンは鮮明に残る力 テロップはぼやけて 見えなくなる。すなわち、図 5に示した結果とは逆になる。シーン ·チェンジしないフレ ーム区間で静止テロップが出現した場合も同様である。なお、テロップの消失位置の 検出をさらに厳密に行ないたい場合には、特開 2004— 282318号公報で開示され ているシーン 'チェンジ検出と同じ方法をテロップ領域に用いることもできる。
[0069] ここで、テロップを検出する際に、領域内の平均色を算出すると、その領域に含ま れるテロップ以外の背景色の影響を受け易ぐ検出精度が低下してしまうという問題 がある。そこで、その代替案として、テロップ領域のエッジ情報を用いてテロップの有 無を判別する方法が挙げられる。すなわち、比較対象となる各フレームについてテロ ップ領域におけるエッジ画像を求め、フレーム間でのテロップ領域のエッジ画像の比 較結果に基づ 、てテロップ領域におけるテロップの存在を判定する。具体的には、 比較対象となる各フレームについてテロップ領域におけるエッジ画像を求め、テロッ プ領域で検出されたエッジ画像の画素数が急激に減少したときにテロップが消えたと 判定することができる。逆に、画素数が急激に増加したときにはテロップが出現したと 判定することもできる。また、エッジが像の画素数の変化が少ないときには、同じテロ ップが出現し続けていると判定することができる。
[0070] 例えば、シーン ·チェンジ点を SCとし、 SCにおけるテロップ領域を Rect、 SCにお ける Rectのエッジ画像を Edgelmglとする。また、 SCから(時間軸上の前方若しくは 後方の) n番目のフレームのテロップ領域 Rectのエッジ画像を EdgelmgNとする。伹 し、エッジ画像は適当な閾値 (例えば 128)で 2値ィ匕する。図 10に示したフローチヤ一 ト中のステップ S23、並びに図 12に示したフローチャート中のステップ S33では、 Ed gelmglと EdgelmgNのエッジ点の数(画素数)を比較し、エッジ点の数が急激に減 少した場合には(例えば、 3分の 1以下)、テロップが消えたと推定することができる( 逆に急激に増加した場合には、テロップが出現したと推定することができる)。
[0071] また、 Edgelmglと EdgelmgNでエッジ点の数があまり変化していない場合には、 テロップが出現し続けていると推定することができる。但し、テロップが変化してもエツ ジ点の数があまり変化しない可能性もある。そこで、 Edgelmglと EdgelmgNの画素 毎の論理積 (AND)をとり、その結果画像におけるエッジ点の数が急激に減少した場 合には (例えば、 3分の 1以下)、テロップが変化した、すなわちテロップの開始又は 終了位置と推定するようにして、検出精度を高めることができる。
[0072] 続いて、ステップ S6で求めたテロップ終了位置力もステップ S5で求めたテロップ開 始位置を減算して、テロップの出現時間を求める。そして、このテロップの出現時間 がー定時間以上の場合のみトピックと判断することで (ステップ S 7)、誤検出を低減す ることができる。 EPG (Electric Program Guide)から番組のジャンル情報を取得 し、ジャンルによって出現時間の閾値を変更することも可能である。例えば、ニュース の場合は比較的長時間テロップが出現しているので 30秒、バラエティの場合は 10秒 、というようにできる。
[0073] ステップ S7において、トピックとして検出されたテロップの開始位置及び終了位置 は、インデックス情報蓄積部 14に保存される (ステップ S8)。
[0074] そして、トピック検出部 13はシーン'チェンジ検出部 12に問い合わせて、当該映像 コンテンツに、ステップ S6で検出されたテロップ終了位置以降にシーン'チェンジ点 があるかどうかを確認する (ステップ S9)。当該テロップ終了位置以降にシーン'チェ ンジ点がもはやない場合には、本処理ルーチン全体を終了する。一方、当該テロッ プ終了位置以降にシーン'チェンジ点がある場合には、次のシーン'チェンジ点のフ レームに移動してから (ステップ S10)、ステップ S2に戻り、上述したトピックの検出処 理を繰り返し行なう。
[0075] また、ステップ S4において、処理対象となっているシーン'チェンジ点でテロップが 検出されなかった場合には、トピック検出部 13はシーン'チェンジ検出部 12に問い 合わせて、当該映像コンテンツに次のシーン'チェンジ点があるかどうかを確認する( ステップ Sl l)。次のシーン ·チェンジ点がもはやない場合には、本処理ルーチン全 体を終了する。一方、次のシーン'チェンジ点がある場合には、次のシーン'チェンジ 点のフレームに移動してから (ステップ S10)、ステップ S2に戻り、上述したトピックの 検出処理を繰り返し行なう。
[0076] 本実施形態では、図 2に示したようにテレビ画像中の四隅にテロップ領域があると いう前提でテロップの検出処理を行なっている。ところが、これらの領域を用いて常に 時刻を表示しているテレビ番組も多い。そこで、検出されたテロップ領域を文字認識 し、数字が取得できればテロップではな 、と判断することで誤認識を回避するようにし てもよい。
[0077] また、テロップが画面からー且消えた数秒後に同じテロップが再び現れることがある 。この対策として、テロップ表示に途切れすなわち一時的な中断が生じた場合であつ ても以下の条件を満たしていれば、テロップが連続している(すなわちトピックが継続 している)と扱うことで、無駄なインデックスを生成しないようにすることができる。
[0078] (1)テロップが消える前と再出現した後のテロップ領域について上式(1)を満たすこ と。
(2)テロップが消える前と再出現した後のテロップ領域について、エッジ画像の画素 数がほぼ同じで、且つエッジ画像の対応するピクセル毎の論理積を取ってもエッジ 画像の画素数がほぼ同じであること。
(3)テロップが消えて 、る時間が閾値 (例えば 5秒)以下であること。
[0079] 例えば、 EPGからテレビ番組のジャンル情報を取得し、ニュース、バラエティなどの ジャンルによって中断時間の閾値を変更するようにしてもよい。
産業上の利用可能性
[0080] 以上、特定の実施形態を参照しながら、本発明につ 、て詳解してきた。しかしなが ら、本発明の要旨を逸脱しな ヽ範囲で当業者が該実施形態の修正や代用を成し得 ることは自明である。
[0081] 本明細書では、主にテレビ番組を録画して得た映像コンテンツに対してインデック ス付けを行なう場合を例にとって説明してきたが、本発明の要旨はこれに限定される ものではない。テレビ放送以外の用途で制作'編集され、トピックを表すテロップ領域 を含んださまざまな映像コンテンツに対しても、本発明に係るコンテンツ処理装置に よって好適にインデックス付けを行なうことができる。
[0082] 要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容 を限定的に解釈するべきではない。本発明の要旨を判断するためには、特許請求の 範囲を参酌すべきである。

Claims

請求の範囲
[1] 画像フレームの時系列からなる映像コンテンツを処理するコンテンツ処理装置であ つて、
処理対象となる映像コンテンツから、画像フレームの切り替わりによりシーンが大きく 変化するシーン'チェンジ点を検出するシーン'チェンジ検出部と、
処理対象となる映像コンテンツから、連続する複数の画像フレームにまたがって同 じ静止テロップが出現している区間を検出するトピック検出部と、
前記トピック検出部が検出した、同じ静止テロップが出現している各区間の時間に 関するインデックス情報を蓄積するインデックス蓄積部と、
を具備することを特徴とするコンテンツ処理装置。
[2] 映像コンテンツの再生時に、前記インデックス蓄積部において管理されるインデック ス情報と映像コンテンツとの関連付けを行なう再生部をさらに備える、
ことを特徴とする請求項 1に記載のコンテンツ処理装置。
[3] 前記再生部は、前記インデックス蓄積部にぉ 、て管理されるインデックス情報の中 力もあるトピックが選択された場合には、該当する映像コンテンツのうちインデックス情 報として記述されている開始時間力 終了時間に至るまでの区間を再生出力する、 ことを特徴とする請求項 2に記載のコンテンツ処理装置。
[4] 前記トピック検出部は、前記シーン'チェンジ検出部により検出されたシーン'チェン ジ点の前後のフレームを利用して、当該位置でテロップが出現しているかどうかを検 出する、
ことを特徴とする請求項 1に記載のコンテンツ処理装置。
[5] 前記トピック検出部は、シーン'チェンジ点の前後の所定期間におけるフレームの 平均画像を作成し、該平均画像に対してテロップ検出を行なう、
ことを特徴とする請求項 1に記載のコンテンツ処理装置。
[6] 前記トピック検出部は、
テロップが検出されたシーン.チェンジ点力も前方のフレームとテロップ領域の比較 を行なって、該テロップ領域からテロップが消えたフレームより 1つ後ろのフレームを 当該トピックの開始位置として検出し、 テロップが検出されたシーン.チェンジ点力も後方のフレームとテロップ領域の比較 を行なって、該テロップ領域からテロップが消えたフレームより 1つ前のフレームを当 該トピックの終了位置として検出する、
ことを特徴とする請求項 5に記載のコンテンツ処理装置。
[7] 前記トピック検出部は、比較対象となる各フレームについてテロップ領域における 色要素毎の平均色を算出し、フレーム間で平均色のユークリッド距離が所定の閾値 を超えたかどうかによつてテロップ領域力もテロップが消えた力どうかを判定する、 ことを特徴とする請求項 6に記載のコンテンツ処理装置。
[8] 前記トピック検出部は、比較対象となる各フレームについてテロップ領域におけるェ ッジ画像を求め、フレーム間でのテロップ領域のエッジ画像の比較結果に基づ!/、て テロップ領域におけるテロップの存在を判定する、
ことを特徴とする請求項 6に記載のコンテンツ処理装置。
[9] 前記トピック検出部は、比較対象となる各フレームについてテロップ領域におけるェ ッジ画像を求め、テロップ領域で検出されたエッジ画像の画素数が急激に減少したと きにテロップが消えたと判定し、該画素数の変化が少ないときには同じテロップが出 現し続けていると判定する、
ことを特徴とする請求項 8に記載のコンテンツ処理装置。
[10] 前記トピック検出部は、テロップ領域で検出されたエッジ画像の画素数の変化が小 さい場合に、さらに互いのエッジ画像同士で対応するエッジ画素毎の論理積をとり、 その結果画像におけるエッジ画素の数が急激に減少した場合にはテロップが変化し たと判定する、
ことを特徴とする請求項 9に記載のコンテンツ処理装置。
[11] 前記トピック検出部は、検出されたテロップ開始位置及び終了位置力 テロップの 出現時間を求め、該テロップの出現時間が一定時間以上の場合のみトピックと判断 する、
ことを特徴とする請求項 6に記載のコンテンツ処理装置。
[12] 前記トピック検出部は、フレーム内でテロップが検出されたテロップ領域の大きさ又 は位置情報に基づいて必要なテロップであるかどうかを判定する、 ことを特徴とする請求項 6に記載のコンテンツ処理装置。
[13] コンピュータ上で構築されるコンテンツ処理システム上で、画像フレームの時系列 力らなる映像コンテンツを処理するコンテンツ処理方法であって、
前記コンピュータが備えるシーン'チェンジ手段が、処理対象となる映像コンテンツ から、画像フレームの切り替わりによりシーンが大きく変化するシーン'チェンジ点を 検出するシーン'チェンジ検出ステップと、
前記コンピュータが備えるトピック検出手段力 前記シーン'チェンジ検出ステップ において検出されたシーン'チェンジ点の前後のフレームを利用して、当該シーン' チェンジ点でテロップが出現しているかどうかを検出し、テロップが検出されたシーン 'チェンジ点の前後において連続する複数の画像フレームにまたがって同じ静止テロ ップが出現している区間を検出するトピック検出ステップと、
前記コンピュータが備えるインデックス蓄積手段が、前記トピック検出ステップにお いて検出した、同じ静止テロップが出現している各区間の時間に関するインデックス 情報を蓄積するインデックス蓄積ステップと、
を具備することを特徴とするコンテンツ処理方法。
[14] 前記インデックス蓄積ステップにお 、て蓄積されたインデックス情報の中からあるト ピックが選択された場合に、該当する映像コンテンツのうちインデックス情報として記 述されている開始時間から終了時間に至るまでの区間を再生出力する再生ステップ をさらに備える、
ことを特徴とする請求項 13に記載のコンテンツ処理方法。
[15] 前記トピック検出ステップでは、シーン'チェンジ点の前後の所定期間におけるフレ ームの平均画像を作成し、該平均画像に対してテロップ検出を行なう、
ことを特徴とする請求項 13に記載のコンテンツ処理方法。
[16] 前記トピック検出ステップでは、
テロップが検出されたシーン.チェンジ点力も前方のフレームとテロップ領域の比較 を行なって、該テロップ領域からテロップが消えたフレームより 1つ後ろのフレームを 当該トピックの開始位置として検出し、
テロップが検出されたシーン.チェンジ点力も後方のフレームとテロップ領域の比較 を行なって、該テロップ領域からテロップが消えたフレームより 1つ前のフレームを当 該トピックの終了位置として検出する、
ことを特徴とする請求項 15に記載のコンテンツ処理方法。
[17] 前記トピック検出ステップでは、比較対照となる各フレームについてテロップ領域に おける色要素毎の平均色を算出し、フレーム間で平均色のユークリッド距離が所定 の閾値を超えた力どうかによってテロップ領域力もテロップが消えたかどうかを判定す る、
ことを特徴とする請求項 16に記載のコンテンツ処理方法。
[18] 前記トピック検出ステップでは、比較対象となる各フレームについてテロップ領域に おけるエッジ画像を求め、フレーム間でのテロップ領域のエッジ画像の比較結果に 基づいてテロップ領域におけるテロップの存在を判定する、
ことを特徴とする請求項 16に記載のコンテンツ処理方法。
[19] 前記トピック検出ステップでは、比較対象となる各フレームについてテロップ領域に おけるエッジ画像を求め、テロップ領域で検出されたエッジ画像の画素数が急激に 減少したときにテロップが消えたと判定し、該画素数の変化が少ないときには同じテ 口ップが出現し続けていると判定する、
ことを特徴とする請求項 18に記載のコンテンツ処理方法。
[20] 前記トピック検出ステップでは、テロップ領域で検出されたエッジ画像の画素数の 変化が小さい場合に、さらに互いのエッジ画像同士で対応するエッジ画素毎の論理 積をとり、その結果画像におけるエッジ画素の数が急激に減少した場合にはテロップ が変化したと判定する、
ことを特徴とする請求項 19に記載のコンテンツ処理方法。
[21] 前記トピック検出ステップでは、検出されたテロップ開始位置及び終了位置力 テロ ップの出現時間を求め、該テロップの出現時間が一定時間以上の場合のみトピックと 判断する、
ことを特徴とする請求項 16に記載のコンテンツ処理方法。
[22] 前記トピック検出ステップでは、フレーム内でテロップが検出されたテロップ領域の 大きさ又は位置情報に基づいて必要なテロップであるかどうかを判定する、 ことを特徴とする請求項 16に記載のコンテンツ処理方法。
画像フレームの時系列からなる映像コンテンツに関する処理をコンピュータ 'システ ム上で実行するようにコンピュータ可読形式で記述されたコンピュータ ·プログラムで あって、前記コンピュータ 'システムに対し、
処理対象となる映像コンテンツから、画像フレームの切り替わりによりシーンが大きく 変化するシーン'チェンジ点を検出するシーン'チェンジ検出手順と、
前記シーン'チェンジ検出手順において検出されたシーン'チェンジ点の前後のフ レームを利用して、当該シーン'チェンジ点でテロップが出現しているかどうかを検出 し、テロップが検出されたシーン'チェンジ点の前後において連続する複数の画像フ レームにまたがって同じ静止テロップが出現している区間を検出するトピック検出手 順と、
前記トピック検出手順において検出した、同じ静止テロップが出現している各区間 の時間に関するインデックス情報を蓄積するインデックス蓄積手順と、
前記インデックス蓄積手順にぉ 、て蓄積されたインデックス情報の中からあるトピッ クが選択された場合に、該当する映像コンテンツのうちインデックス情報として記述さ れている開始時間から終了時間に至るまでの区間を再生出力する再生手順と、 を実行させることを特徴とするコンピュータ ·プログラム。
PCT/JP2006/309378 2005-05-26 2006-05-10 コンテンツ処理装置及びコンテンツ処理方法、並びにコンピュータ・プログラム WO2006126391A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/658,507 US20090066845A1 (en) 2005-05-26 2006-05-10 Content Processing Apparatus, Method of Processing Content, and Computer Program
KR1020077001835A KR101237229B1 (ko) 2005-05-26 2006-05-10 콘텐츠 처리 장치 및 콘텐츠 처리 방법

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005153419 2005-05-26
JP2005-153419 2005-05-26
JP2006108310A JP4613867B2 (ja) 2005-05-26 2006-04-11 コンテンツ処理装置及びコンテンツ処理方法、並びにコンピュータ・プログラム
JP2006-108310 2006-04-11

Publications (1)

Publication Number Publication Date
WO2006126391A1 true WO2006126391A1 (ja) 2006-11-30

Family

ID=37451817

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/309378 WO2006126391A1 (ja) 2005-05-26 2006-05-10 コンテンツ処理装置及びコンテンツ処理方法、並びにコンピュータ・プログラム

Country Status (4)

Country Link
US (1) US20090066845A1 (ja)
JP (1) JP4613867B2 (ja)
KR (1) KR101237229B1 (ja)
WO (1) WO2006126391A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008166988A (ja) * 2006-12-27 2008-07-17 Sony Corp 情報処理装置および方法、並びにプログラム
CN101764949A (zh) * 2008-11-10 2010-06-30 新奥特(北京)视频技术有限公司 一种基于区域划分的定时字幕的冲突检测方法
CN101764950A (zh) * 2008-11-10 2010-06-30 新奥特(北京)视频技术有限公司 一种基于区域划分的节目下字幕的冲突检测方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5010292B2 (ja) 2007-01-18 2012-08-29 株式会社東芝 映像属性情報出力装置、映像要約装置、プログラムおよび映像属性情報出力方法
JP4846674B2 (ja) * 2007-08-14 2011-12-28 日本放送協会 静止画抽出装置及び静止画抽出プログラム
JP5444611B2 (ja) * 2007-12-18 2014-03-19 ソニー株式会社 信号処理装置、信号処理方法及びプログラム
JP4469905B2 (ja) 2008-06-30 2010-06-02 株式会社東芝 テロップ収集装置およびテロップ収集方法
JP2010109852A (ja) * 2008-10-31 2010-05-13 Hitachi Ltd 映像インデクシング方法、映像録画再生装置、及び映像再生装置
JP4459292B1 (ja) * 2009-05-29 2010-04-28 株式会社東芝 テレビショッピング番組の検出方法およびこの方法を用いる映像装置
JP5675141B2 (ja) * 2010-03-29 2015-02-25 キヤノン株式会社 再生装置及び再生方法
US20130100346A1 (en) * 2011-10-19 2013-04-25 Isao Otsuka Video processing device, video display device, video recording device, video processing method, and recording medium
US10065121B2 (en) 2013-10-30 2018-09-04 Tencent Technology (Shenzhen) Company Limited Method and apparatus for recording data of network interaction protocol
CN104598461B (zh) * 2013-10-30 2018-08-03 腾讯科技(深圳)有限公司 网络交互协议数据记录的方法和装置
CN104469545B (zh) * 2014-12-22 2017-09-15 无锡天脉聚源传媒科技有限公司 一种检验视频片段切分效果的方法和装置
CN104469546B (zh) * 2014-12-22 2017-09-15 无锡天脉聚源传媒科技有限公司 一种处理视频片段的方法和装置
CN108683826B (zh) * 2018-05-15 2021-12-14 腾讯科技(深圳)有限公司 视频数据处理方法、装置、计算机设备和存储介质
KR102546026B1 (ko) 2018-05-21 2023-06-22 삼성전자주식회사 전자 장치 및 그의 컨텐츠 인식 정보 획득
KR102599951B1 (ko) 2018-06-25 2023-11-09 삼성전자주식회사 전자 장치 및 그의 제어방법
KR20200080387A (ko) 2018-12-18 2020-07-07 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
JP7447422B2 (ja) 2019-10-07 2024-03-12 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10112837A (ja) * 1996-10-07 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> 映像目次生成表示方法および装置
JPH10154148A (ja) * 1996-11-25 1998-06-09 Matsushita Electric Ind Co Ltd 動画像検索装置
JP2003298981A (ja) * 2002-04-03 2003-10-17 Oojisu Soken:Kk 要約画像作成装置、要約画像作成方法、要約画像作成プログラム、及び要約画像作成プログラムを記憶したコンピュータ読取可能な記憶媒体

Family Cites Families (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3596656A (en) * 1969-01-21 1971-08-03 Bernd B Kaute Fracture fixation device
US4040130A (en) * 1976-10-12 1977-08-09 Laure Prosthetics, Inc. Wrist joint prosthesis
US4156296A (en) * 1977-04-08 1979-05-29 Bio-Dynamics, Inc. Great (large) toe prosthesis and method of implanting
US4210317A (en) * 1979-05-01 1980-07-01 Dorothy Sherry Apparatus for supporting and positioning the arm and shoulder
CA1146301A (en) * 1980-06-13 1983-05-17 J. David Kuntz Intervertebral disc prosthesis
US4472840A (en) * 1981-09-21 1984-09-25 Jefferies Steven R Method of inducing osseous formation by implanting bone graft material
US4394370A (en) * 1981-09-21 1983-07-19 Jefferies Steven R Bone graft material for osseous defects and method of making same
US4693722A (en) * 1983-08-19 1987-09-15 Wall William H Prosthetic temporomanibular condyle utilizing a prosthetic meniscus
US4611581A (en) * 1983-12-16 1986-09-16 Acromed Corporation Apparatus for straightening spinal columns
US4805602A (en) * 1986-11-03 1989-02-21 Danninger Medical Technology Transpedicular screw and rod system
US5019081A (en) * 1986-12-10 1991-05-28 Watanabe Robert S Laminectomy surgical process
US4917701A (en) * 1988-09-12 1990-04-17 Morgan Douglas H Temporomandibular joint prostheses
DE3831657A1 (de) * 1988-09-17 1990-03-22 Boehringer Ingelheim Kg Vorrichtung zur osteosynthese und verfahren zu ihrer herstellung
US5015255A (en) * 1989-05-10 1991-05-14 Spine-Tech, Inc. Spinal stabilization method
CA2007210C (en) * 1989-05-10 1996-07-09 Stephen D. Kuslich Intervertebral reamer
US5000165A (en) * 1989-05-15 1991-03-19 Watanabe Robert S Lumbar spine rod fixation system
US5290558A (en) * 1989-09-21 1994-03-01 Osteotech, Inc. Flowable demineralized bone powder composition and its use in bone repair
US5236456A (en) * 1989-11-09 1993-08-17 Osteotech, Inc. Osteogenic composition and implant containing same
US5129900B1 (en) * 1990-07-24 1998-12-29 Acromed Corp Spinal column retaining method and apparatus
US5300073A (en) * 1990-10-05 1994-04-05 Salut, Ltd. Sacral implant system
DE69222004D1 (de) * 1991-06-25 1997-10-09 Microaire Surgical Instr Inc Prothese für ein metatarsal-phalangeales gelenk
US5603713A (en) * 1991-09-24 1997-02-18 Aust; Gilbert M. Anterior lumbar/cervical bicortical compression plate
US5314476A (en) * 1992-02-04 1994-05-24 Osteotech, Inc. Demineralized bone particles and flowable osteogenic composition containing same
US5314492A (en) * 1992-05-11 1994-05-24 Johnson & Johnson Orthopaedics, Inc. Composite prosthesis
US5312409A (en) * 1992-06-01 1994-05-17 Mclaughlin Robert E Drill alignment guide
EP0599847B1 (de) * 1992-06-25 1997-04-02 Synthes AG, Chur Osteosynthetische fixationsvorrichtung
US5545165A (en) * 1992-10-09 1996-08-13 Biedermann Motech Gmbh Anchoring member
US6077262A (en) * 1993-06-04 2000-06-20 Synthes (U.S.A.) Posterior spinal implant
US5491882A (en) * 1993-12-28 1996-02-20 Walston; D. Kenneth Method of making joint prosthesis having PTFE cushion
US5879396A (en) * 1993-12-28 1999-03-09 Walston; D. Kenneth Joint prosthesis having PTFE cushion
US5738585A (en) * 1994-10-12 1998-04-14 Hoyt, Iii; Raymond Earl Compact flexible couplings with inside diameter belt support and lock-on features
US5609641A (en) * 1995-01-31 1997-03-11 Smith & Nephew Richards Inc. Tibial prosthesis
US5683391A (en) * 1995-06-07 1997-11-04 Danek Medical, Inc. Anterior spinal instrumentation and method for implantation and revision
US5643263A (en) * 1995-08-14 1997-07-01 Simonson; Peter Melott Spinal implant connection assembly
US5658338A (en) * 1995-09-29 1997-08-19 Tullos; Hugh S. Prosthetic modular bone fixation mantle and implant system
US5704941A (en) * 1995-11-03 1998-01-06 Osteonics Corp. Tibial preparation apparatus and method
US5766253A (en) * 1996-01-16 1998-06-16 Surgical Dynamics, Inc. Spinal fusion device
US5649930A (en) * 1996-01-26 1997-07-22 Kertzner; Richard I. Orthopedic centering tool
US5976133A (en) * 1997-04-23 1999-11-02 Trustees Of Tufts College External fixator clamp and system
FR2748387B1 (fr) * 1996-05-13 1998-10-30 Stryker France Sa Dispositif de fixation osseuse, en particulier au sacrum, en osteosynthese du rachis
MY119560A (en) * 1996-05-27 2005-06-30 Nippon Telegraph & Telephone Scheme for detecting captions in coded video data without decoding coded video data
US5811151A (en) * 1996-05-31 1998-09-22 Medtronic, Inc. Method of modifying the surface of a medical device
US5741255A (en) * 1996-06-05 1998-04-21 Acromed Corporation Spinal column retaining apparatus
US5741261A (en) * 1996-06-25 1998-04-21 Sdgi Holdings, Inc. Minimally invasive spinal surgical methods and instruments
US6019759A (en) * 1996-07-29 2000-02-01 Rogozinski; Chaim Multi-Directional fasteners or attachment devices for spinal implant elements
US5797911A (en) * 1996-09-24 1998-08-25 Sdgi Holdings, Inc. Multi-axial bone screw assembly
US5879350A (en) * 1996-09-24 1999-03-09 Sdgi Holdings, Inc. Multi-axial bone screw assembly
US5863293A (en) * 1996-10-18 1999-01-26 Spinal Innovations Spinal implant fixation assembly
US6219382B1 (en) * 1996-11-25 2001-04-17 Matsushita Electric Industrial Co., Ltd. Method and apparatus for locating a caption-added frame in a moving picture signal
US6485494B1 (en) * 1996-12-20 2002-11-26 Thomas T. Haider Pedicle screw system for osteosynthesis
US5776135A (en) * 1996-12-23 1998-07-07 Third Millennium Engineering, Llc Side mounted polyaxial pedicle screw
US6248105B1 (en) * 1997-05-17 2001-06-19 Synthes (U.S.A.) Device for connecting a longitudinal support with a pedicle screw
DE29710484U1 (de) * 1997-06-16 1998-10-15 Howmedica Gmbh Aufnahmeteil für ein Haltebauteil eines Wirbelsäulenimplantats
US5891145A (en) * 1997-07-14 1999-04-06 Sdgi Holdings, Inc. Multi-axial screw
US6749361B2 (en) * 1997-10-06 2004-06-15 Werner Hermann Shackle element for clamping a fixation rod, a method for making a shackle element, a hook with a shackle element and a rode connector with a shackle element
FR2770767B1 (fr) * 1997-11-10 2000-03-10 Dimso Sa Implant pour vertebre
US6366699B1 (en) * 1997-12-04 2002-04-02 Nippon Telegraph And Telephone Corporation Scheme for extractions and recognitions of telop characters from video data
FR2771918B1 (fr) * 1997-12-09 2000-04-21 Dimso Sa Connecteur pour dispositif d'osteosynthese rachidienne
US6010503A (en) * 1998-04-03 2000-01-04 Spinal Innovations, Llc Locking mechanism
US6565565B1 (en) * 1998-06-17 2003-05-20 Howmedica Osteonics Corp. Device for securing spinal rods
US6090111A (en) * 1998-06-17 2000-07-18 Surgical Dynamics, Inc. Device for securing spinal rods
US6231575B1 (en) * 1998-08-27 2001-05-15 Martin H. Krag Spinal column retainer
US6214012B1 (en) * 1998-11-13 2001-04-10 Harrington Arthritis Research Center Method and apparatus for delivering material to a desired location
US6050997A (en) * 1999-01-25 2000-04-18 Mullane; Thomas S. Spinal fixation system
US6086590A (en) * 1999-02-02 2000-07-11 Pioneer Laboratories, Inc. Cable connector for orthopaedic rod
US6585769B1 (en) * 1999-04-05 2003-07-01 Howmedica Osteonics Corp. Artificial spinal ligament
US6200322B1 (en) * 1999-08-13 2001-03-13 Sdgi Holdings, Inc. Minimal exposure posterior spinal interbody instrumentation and technique
US20050027361A1 (en) * 1999-10-22 2005-02-03 Reiley Mark A. Facet arthroplasty devices and methods
US7674293B2 (en) * 2004-04-22 2010-03-09 Facet Solutions, Inc. Crossbar spinal prosthesis having a modular design and related implantation methods
EP1854433B1 (en) * 1999-10-22 2010-05-12 FSI Acquisition Sub, LLC Facet arthroplasty devices
US6811567B2 (en) * 1999-10-22 2004-11-02 Archus Orthopedics Inc. Facet arthroplasty devices and methods
US7691145B2 (en) * 1999-10-22 2010-04-06 Facet Solutions, Inc. Prostheses, systems and methods for replacement of natural facet joints with artificial facet joint surfaces
US20040125877A1 (en) * 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content
US8872979B2 (en) * 2002-05-21 2014-10-28 Avaya Inc. Combined-media scene tracking for audio-video summarization
JP2004343352A (ja) * 2003-05-14 2004-12-02 Sony Corp 電子機器装置及びテロップ情報処理方法
US20040230304A1 (en) * 2003-05-14 2004-11-18 Archus Orthopedics Inc. Prostheses, tools and methods for replacement of natural facet joints with artifical facet joint surfaces
JPWO2005002231A1 (ja) * 2003-06-27 2006-08-17 株式会社日立製作所 映像編集装置
KR20060027826A (ko) * 2003-07-03 2006-03-28 마츠시타 덴끼 산교 가부시키가이샤 비디오 처리장치, 비디오 처리장치용 집적회로, 비디오처리방법, 및 비디오 처리 프로그램
US7074238B2 (en) * 2003-07-08 2006-07-11 Archus Orthopedics, Inc. Prostheses, tools and methods for replacement of natural facet joints with artificial facet joint surfaces
JP2005080209A (ja) * 2003-09-03 2005-03-24 Ntt Comware Corp 動画分割方法、動画分割装置、マルチメディア用検索インデックス付与装置、および動画分割プログラム
US7406775B2 (en) * 2004-04-22 2008-08-05 Archus Orthopedics, Inc. Implantable orthopedic device component selection instrument and methods
US7051451B2 (en) * 2004-04-22 2006-05-30 Archus Orthopedics, Inc. Facet joint prosthesis measurement and implant tools
CA2576636A1 (en) * 2004-08-18 2006-03-02 Archus Orthopedics, Inc. Adjacent level facet arthroplasty devices, spine stabilization systems, and methods
US20060041311A1 (en) * 2004-08-18 2006-02-23 Mcleer Thomas J Devices and methods for treating facet joints
WO2006018970A1 (ja) * 2004-08-19 2006-02-23 Pioneer Corporation テロップ検出方法、テロップ検出プログラム、およびテロップ検出装置
US20060079895A1 (en) * 2004-09-30 2006-04-13 Mcleer Thomas J Methods and devices for improved bonding of devices to bone
US20060085075A1 (en) * 2004-10-04 2006-04-20 Archus Orthopedics, Inc. Polymeric joint complex and methods of use
JP2008534063A (ja) * 2005-03-22 2008-08-28 アーカス・オーソペディクス・インコーポレーテッド 低侵襲性脊椎回復システム、装置、方法、及びキット

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10112837A (ja) * 1996-10-07 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> 映像目次生成表示方法および装置
JPH10154148A (ja) * 1996-11-25 1998-06-09 Matsushita Electric Ind Co Ltd 動画像検索装置
JP2003298981A (ja) * 2002-04-03 2003-10-17 Oojisu Soken:Kk 要約画像作成装置、要約画像作成方法、要約画像作成プログラム、及び要約画像作成プログラムを記憶したコンピュータ読取可能な記憶媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008166988A (ja) * 2006-12-27 2008-07-17 Sony Corp 情報処理装置および方法、並びにプログラム
US8213764B2 (en) 2006-12-27 2012-07-03 Sony Corporation Information processing apparatus, method and program
CN101764949A (zh) * 2008-11-10 2010-06-30 新奥特(北京)视频技术有限公司 一种基于区域划分的定时字幕的冲突检测方法
CN101764950A (zh) * 2008-11-10 2010-06-30 新奥特(北京)视频技术有限公司 一种基于区域划分的节目下字幕的冲突检测方法

Also Published As

Publication number Publication date
KR20080007424A (ko) 2008-01-21
US20090066845A1 (en) 2009-03-12
JP4613867B2 (ja) 2011-01-19
KR101237229B1 (ko) 2013-02-26
JP2007006454A (ja) 2007-01-11

Similar Documents

Publication Publication Date Title
WO2006126391A1 (ja) コンテンツ処理装置及びコンテンツ処理方法、並びにコンピュータ・プログラム
KR100915847B1 (ko) 스트리밍 비디오 북마크들
US7894709B2 (en) Video abstracting
US6760536B1 (en) Fast video playback with automatic content based variable speed
JP5031312B2 (ja) 複数のフレームを含むビデオの要約を生成するための方法およびシステム
EP1557838A2 (en) Apparatus, method and computer product for recognizing video contents and for video recording
US8214368B2 (en) Device, method, and computer-readable recording medium for notifying content scene appearance
US20070041706A1 (en) Systems and methods for generating multimedia highlight content
JP3407840B2 (ja) 映像要約方法
US20050264703A1 (en) Moving image processing apparatus and method
KR20020050264A (ko) 컬러링된 슬라이더 바를 제공하는 재생 장치
KR20030026529A (ko) 키프레임 기반 비디오 요약 시스템
US20100259688A1 (en) method of determining a starting point of a semantic unit in an audiovisual signal
KR101440168B1 (ko) 개요 및 리포트를 이미 포함하는 시청각 도큐먼트의 새로운 개요를 생성하기 위한 방법 및 상기 방법을 구현할 수 있는 수신기
WO2005086471A1 (en) Video trailer
EP1293914A2 (en) Apparatus, method and processing program for summarizing image information
CN100551014C (zh) 内容处理设备、处理内容的方法
JP2007266838A (ja) 記録再生装置、記録再生方法、及び、記録再生プログラムを記録した記録媒体
KR100552248B1 (ko) 복수의키-프레임들병렬디스플레이에의해비디오재료를통해네비게이팅하는방법및장치
JP2008153920A (ja) 動画像一覧表示装置
KR20060102639A (ko) 동영상 재생 시스템 및 방법
JP2007201815A (ja) 表示装置、再生装置、方法、及びプログラム
Aoyagi et al. Implementation of flexible-playtime video skimming
JP2004260847A (ja) マルチメディアデータ処理装置、記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 1020077001835

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 200680000555.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

122 Ep: pct application non-entry in european phase

Ref document number: 06746195

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 11658507

Country of ref document: US