CN101322179A - 音乐编辑设备、创建音乐编辑信息的方法及其记录介质 - Google Patents

音乐编辑设备、创建音乐编辑信息的方法及其记录介质 Download PDF

Info

Publication number
CN101322179A
CN101322179A CNA2006800452229A CN200680045222A CN101322179A CN 101322179 A CN101322179 A CN 101322179A CN A2006800452229 A CNA2006800452229 A CN A2006800452229A CN 200680045222 A CN200680045222 A CN 200680045222A CN 101322179 A CN101322179 A CN 101322179A
Authority
CN
China
Prior art keywords
song
audio mixing
layer
metadata
reproduced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006800452229A
Other languages
English (en)
Other versions
CN101322179B (zh
Inventor
小森显博
山下功诚
宫岛靖
高井基行
开哲一
阿部友一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101322179A publication Critical patent/CN101322179A/zh
Application granted granted Critical
Publication of CN101322179B publication Critical patent/CN101322179B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • G10H2220/081Beat indicator, e.g. marks or flashing LEDs to indicate tempo or beat positions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/016File editing, i.e. modifying musical data files or streams as such
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Abstract

提供一种音乐编辑设备,它能够以调整多首歌曲中的每首歌曲的全部或多个部分的节拍的方式来实现叠合或连接这些歌曲的全部或多个部分的编辑处理。该音乐编辑设备包括:混音处理部分,基于对应于歌曲数据预先产生的至少包含基于时间的节拍位置的元数据和用于决定混音模式的文件来执行混音处理;同步再现控制部分,产生主节拍,将主节拍发送到混音处理部分,并根据混音处理部分对应于混音模式和元数据而指定的混音处理,基于元数据的各个条目再现多首歌曲;和混合部分,其混合由同步再现控制部分再现的歌曲。混音处理部分基于被构造为分级层的混音模式文件执行混音处理,所述分级层中的每一级层具有控制参数部分和数据实体部分。

Description

音乐编辑设备、创建音乐编辑信息的方法及其记录介质
技术领域
本发明涉及一种创建音乐编辑信息的方法,所述音乐编辑信息指定例如将被编辑的歌曲的歌曲部分或小节的连接方法,具体地讲,涉及一种音乐编辑设备,该音乐编辑设备将音乐内容等编辑成与根据所述创建方法创建的编辑信息相对应的素材,并新创建歌曲(音乐内容)。另外,本发明涉及一种记录根据所述创建音乐编辑信息的方法描述的编辑信息的记录介质。
背景技术
随着存储器类型的音频变得普遍,用户每天随身携带大量歌曲。由于存储器类型的音频允许其用户连续收听大量歌曲而无需改变介质,以下方式变得普遍:用户不仅顺次收听每个CD唱片集的歌曲,而且还收听在所有CD唱片集中随机播放的歌曲和被设为播放列表的他们喜爱的歌曲。可以说,用户按他们喜爱的顺序收听他们喜爱的歌曲的自由度增加。
然而,假设用户从头到尾收听每首歌曲。另外,在歌曲之间存在没有声音的区间。换句话说,一首歌曲是最小单位。因而,用户必须一首歌接一首歌地收听音乐。用户的关注力,即,他或她的热情在歌曲之间这样的没有声音的区间中断。结果,用户难以在保持他或她的关注状态的情况下连续收听歌曲。
图28显示使用歌曲A和歌曲B的传统音乐再现。在这种情况下,用这两首歌曲的原始速度再现这两首歌曲。当然,在这些歌曲之间存在没有声音的区间。
因而,研发了组合多个音乐素材并对它们进行编辑的技术。公开号为2003-44046的日本专利申请公开了这样的技术,该技术组合通过用户的键盘和鼠标输入的多个音乐素材,并允许他或她交互式地对它们进行编辑和欣赏再现的歌曲。在该技术中,声音片段例如声音样式以及由可应用于声音片段的效果构成的单击和轻击被分配给键盘的各个键。当用户按下键时,执行与其对应的轻击。当同时按下多个键时,相应的轻击被组合输出。另外,通过连续地按键,相应的轻击被按时间顺序组合,从而创作出歌曲。
然而,利用前述公开为公开号为2003-44046的日本专利申请的技术,难以连接多首歌曲的多个部分,使它们的节拍在由流行音乐主持人(DJ)产生的混音下保持相同,从而重新创作歌曲。DJ目前是常见的职业。存在专门处理混音音乐的包装公司。欣赏混音音乐的用户的数量在不断增加。
根据前述观点创造本发明。本发明的目的在于提供一种方法,用于创建在对记录在诸如硬盘或闪存的记录介质中的许多歌曲进行编辑时使用的音乐编辑信息,使得这些歌曲的全部或部分在节拍保持不变的情况下叠合或连接。本发明的另一目的在于提供一种音乐编辑设备,它将音乐内容用作素材并创建与根据前述创建方法产生的编辑信息相对应的新歌曲(音乐内容)。本发明的另一个目的在于提供一种记录根据音乐编辑信息的创建方法描述的编辑信息的记录介质。
发明内容
为了解决前述问题,本发明的音乐编辑设备具有:混音处理部分,其基于元数据和用于决定混音模式的文件来执行混音处理,所述元数据对应于歌曲数据而被预先产生并且包含至少一个基于时间的节拍位置;同步再现控制部分,其产生主节拍,将主节拍发送到混音处理部分,并根据混音处理部分对应于混音模式和元数据而指定的混音处理,基于元数据的各个条目再现多首歌曲;和混合部分,其混合由同步再现控制部分再现的歌曲,所述混音处理部分的特征在于:所述混音处理部分基于被构造为分级层的混音模式文件执行混音处理,所述分级层中的每一级层具有控制参数部分和数据实体部分。
为了解决前述问题,所述创建编辑信息的方法是一种由音乐编辑设备创建被称为混音模式的编辑信息的方法,所述音乐编辑设备具有:混音处理部分,其基于元数据和用于决定混音模式的文件来执行混音处理,所述元数据是对应于歌曲数据预先产生的并且至少包含基于时间的节拍位置;同步再现控制部分,其产生主节拍,将主节拍发送到混音处理部分,并根据混音处理部分对应于混音模式和元数据而指定的混音处理,基于元数据的各个条目再现多首歌曲;和混合部分,其混合由同步再现控制部分再现的歌曲,其特征在于:通过使构成上级层的数据实体部分的下级层的控制参数部分对同级层的数据实体部分进行处理来创建被构造为分级层的混音模式文件,所述分级层的每一级层具有控制参数部分和数据实体部分。
为了解决前述问题,本发明的记录编辑信息的记录介质为由音乐编辑设备记录被称为混音模式的编辑信息的记录介质,所述音乐编辑设备具有:混音处理部分,其基于元数据和用于决定混音模式的文件来执行混音处理,所述元数据是对应于歌曲数据预先产生的并且至少包含基于时间的节拍位置;同步再现控制部分,其产生主节拍,将主节拍发送到混音处理部分,并根据混音处理部分对应于混音模式和元数据而指定的混音处理,基于元数据的各个条目再现多首歌曲;和混合部分,其混合由同步再现控制部分再现的歌曲,其特征在于:被记录在被构造为分级层的混音模式文件中的是通过使构成上级层的数据实体部分的下级层的控制参数部分对同级层的数据实体部分进行处理而创建的编辑信息,所述分级层的每级层具有控制参数部分和数据实体部分。
根据本发明,可实现这样的编辑处理,即,叠合或连接被记录在诸如硬盘或闪存的记录介质中的多首歌曲的全部或多个部分,并在保持它们的节拍不变的情况下,再现叠合或连接的歌曲。另外,可根据情况实时地连接和再现歌曲的全部或多个部分。
附图说明
图1是显示根据本发明的设备和方法的实施例的音乐编辑设备1的框图;
图2是显示同步再现控制部分和音频混合部分的详细结构的框图;
图3是显示音乐编辑设备的功能框图;
图4是显示音乐编辑设备通过CPU执行的音乐编辑程序的处理流程图;
图5是显示基于时间的元数据的示意图;
图6是显示基于时间的元数据的一个具体例子的示意图;
图7是显示基于时间的元数据的另一具体例子的示意图;
图8A、图8B和图8C是显示存储元数据的方法的示意图;
图9是显示混音模式文件的具体例子的示意图;
图10是显示通过根据本发明的创建编辑信息的方法而创建的编辑信息的数据结构的示意图;
图11是显示根据XML描述的混音模式文件的例子的示意图;
图12是显示直到合奏(ensemble)层和乐器层以及歌曲列表层、歌曲层和曲调块(melody block)层的分级结构的示意图;
图13是显示音乐编辑设备基于根据本发明的创建编辑信息的方法所创建的编辑信息,具体地基于混音模式文件而进行的控制处理的例子的示意图;
图14是显示直观上实现根据本发明的创建编辑信息的方法的创作工具的GUI结构的例子的示意图;
图15是用于描述根据本发明的音乐再现的示意图;
图16是用于描述使用渐变切换(cross-fade)的连接的示意图;
图17是用于描述使用切入(cut-in)的连接的示意图;
图18是用于描述使用音效(sound effect)的连接的示意图;
图19是用于描述将渐变切换用作音效的连接的示意图;
图20是用于描述同时同步再现的示意图;
图21是用于描述效果的应用的示意图;
图22是用于描述部分再现的示意图;
图23是显示具有网络通信部分的音乐编辑设备的结构的示意图;
图24是具有网络通信部分的音乐编辑设备的功能框图;
图25是显示具有传感器值获取部分的音乐编辑设备的结构示意图;
图26是显示具有传感器值获取部分的音乐编辑设备的功能框图;
图27A和图27B是显示具有传感器值获取部分的音乐编辑设备的处理流程图;和
图28是用于描述现有技术的音乐再现的示意图。
具体实施方式
接下来,参考附图,将描述用于执行本发明的最佳模式实施例。图1是显示根据本发明的设备和方法的实施例的音乐编辑设备1的框图。
音乐编辑设备1可将通过各种类型的记录介质和通过诸如因特网的网络提供的歌曲的具有不同速度的音乐内容数据(原始数据)的歌曲A和歌曲B与稍后描述的以下元数据叠合,并在保持它们的节拍不变的情况下再现它们,所述各种类型的记录介质例如是硬盘(HD)、压缩盘(CD)、迷你盘(MD)和数字多用途盘(DVD)。换句话说,音乐编辑设备1是以DJ方式自动再现歌曲的设备。
如图1所示,在音乐编辑设备1中,中央处理单元(CPU)2通过总线3连接至存储部分4和同步再现部分8。另外,通过总线3连接至CPU 2的是ROM 13、RAM 14、用户操作I/F部分15和用户接口(U/I)显示部分16。
CPU 2实时地决定歌曲的连接方法,并按需要的时序将需要的歌曲素材供应给同步再现部分8。另外,根据用户的操作,CPU 2指定用于同步再现部分8的速度和节拍同步/异步。
存储部分4包括歌曲存储部分5、歌曲元数据存储部分6和混音模式存储部分7。歌曲存储部分5存储多首歌曲的数据。可将控制台类型的音乐再现设备或便携式音乐再现设备具有的存储部分,例如闪存或硬盘作为外部装置连接至歌曲存储部分5。存储在歌曲存储部分5中的歌曲数据可以是压缩的音乐数据,也可以是没有压缩的数据。
歌曲元数据存储部分6存储添加到歌曲的基于时间的元数据。如稍后将描述的,元数据为添加到歌曲的基于时间的辅助数据,其描述节拍的位置信息以及速度、小节的开头位置信息(简单地称为开头)和曲调信息例如前奏和主旋律(易记部分)。
与歌曲存储部分5相同,混音模式存储部分7不受限制,只要它是存储装置即可。混音模式存储部分7是指定混音模式并存储混音模式文件的存储部分。如稍后描述的,混音模式文件不仅是描述歌曲顺序的文件,而且还是描述使用歌曲A和歌曲B的什么部分以及在什么部分组合歌曲A和歌曲B的文件。
同步再现部分8是音乐编辑设备1用来以DJ方式自动再现歌曲的信号处理块。同步再现部分8与参考节拍同步地再现由CPU 2的混音控制功能指定的歌曲素材。同步再现部分8包括同步再现控制部分9、音频混合部分10、数字/模拟转换部分(D/A)11和音频输出部分12。
同步再现控制部分9具有多个音频信号产生部分,并与本地产生的时钟信号同步地再现多个音频信号。另外,同步再现控制部分9总是基于从元数据存储部分6供应的元数据来监视正被再现的歌曲的位置,并将当前再现位置(诸如正被再现的歌曲的采样数量)和表示什么小节的什么节拍正被再现的再现位置发送回CPU 2的混音处理功能部分。
音频混合部分10组合由同步再现控制部分9的多个音频信号产生部分产生的多个音频信号,并输出组合的信号。D/A 11将由音频混合部分10再现的数字信号转换为模拟信号。音频输出部分12放大从D/A 11供应的模拟音频信号,并将放大的信号输出到扬声器、耳机等。
ROM 13存储音乐编辑程序,该程序包括基于根据本发明的音乐编辑方法的处理。另外,ROM 13存储各种类型的缺省数据。RAM 14成为CPU 2用来执行音乐编辑程序的工作区。另外,RAM 14存储各种类型的更新数据,通过这些更新数据,CPU 2执行音乐编辑程序。
用户操作I/F部分15例如为接受用户的操作的键盘、鼠标、触摸板等。U/I显示部分16是包括触摸板的显示部分,该显示部分显示当前操作状态和音乐编辑处理状态并接受用户的操作。U/I显示部分16例如为液晶显示装置。当然,U/I显示部分16可以是CRT。
图2是显示同步再现控制部分9和音频混合部分10的详细结构的框图。同步再现控制部分9包括主节拍产生部分90和三个音频信号产生部分。主节拍产生部分90产生相当于节拍的时钟。具体地讲,主节拍产生部分90输出混音的速度和与该速度同步的节拍信号。主节拍产生部分90产生小节的开头信号和与指定节拍(四四拍、四三拍等)对应的除开头信号之外的固定的节拍信号,并输出它们。
三个(音轨的)音频信号产生部分具有三个音轨以实时输出多个立体声,举一个典型的例子,歌曲A、歌曲B和音效(SE)。当然,音频信号产生部分可根据歌曲的数量而具有四个音轨、五个音轨或者更多的音轨。音频信号产生部分基于由主节拍产生部分80产生的同步信号(时钟或节拍)同步地再现与主节拍的小节/节拍位置相对应的歌曲的小节/节拍位置。
对于各个音轨,提供解码器91a、91b和91c以及时间伸展部分92a、92b和92c。解码器91a、91b和91c对已根据MP3或ATRAC压缩的压缩声音进行解码,并输出PCM数据。在这种情况下,由于SE短并且其数据大小较小,所有它不总是需要被解码。因而,可省略用于SE音轨的解码器。时间伸展部分92a、92b和92c在使音调保持不变的同时转换再现速度。时间伸展部分92a、92b和92c基于从歌曲元数据存储部分6供应的元数据使歌曲素材的速度与参考节拍的速度匹配。时间伸展部分92a、92b和92c基于歌曲的原始速度和主节拍的比率来执行实时改变再现速度的处理。因而,可使歌曲的原始速度与主节拍的速度匹配。当然,如上所述,音调不改变。
音频信号产生部分可具有变调器功能。变调器功能在保持再现速度不变的同时改变音调。变调器功能用于在音乐上使不同调(key)和音调(pitch)的歌曲素材协调。然而,变调器功能不是必要功能,而是附加功能。
音频混合部分10具有三个效果处理部分100a、100b和100c以及与三个音轨的音频信号产生部分对应的三个音量调整部分101a、101b和101c。这三个系统的输出被音频混合部分102混合,被音频输出部分103放大,然后被输出到外部扬声器、耳机等。音频混合部分10可对从音频信号产生部分供应的输出音频信号的各个音轨执行效果处理和音量调整处理。
图3是音乐编辑设备1的功能框图。混音处理部分20代表作为图1中的硬件结构的CPU 2的功能。混音处理部分20分为元数据处理部分21和混音模式读取部分22。
混音处理部分20使元数据处理部分21对存储在歌曲元数据部分6中的元数据进行处理。如上所述,基于时间的元数据已被添加到歌曲。元数据不仅包含速度,而且还包含节拍的位置信息、小节的开头位置信息以及前奏和易记部分的曲调信息等。
元数据处理部分21读取与歌曲对应的基于时间的元数据,并根据混音模式读取部分22读取的指定混音模式信息来检查歌曲的位置信息。例如,在知道将被组合的歌曲的当前节拍和节拍位置的情况下,元数据处理部分21决定以什么时序如何再现歌曲和音效。
另外,混音处理部分20使混音模式读取部分22读取存储在混音模式存储部分7中的混音模式文件7a。混音模式文件7a为指定是否执行渐出、是否执行切入以及执行什么SE的文件。混音模式可以是由用户或第三方指定(指示如何连接这首歌曲)或者根据自动创建算法而创建(即,由机器方决定的混音)的数据序列。
同步再现控制部分9使主节拍产生部分90产生主节拍,将主节拍发送到混音处理部分20,并根据混音处理部分20基于混音模式和元数据所指定的混音处理,基于从元数据存储部分6提供的元数据的各条目来再现多首歌曲。
图4显示音乐编辑设备1与CPU 2执行的音乐编辑程序的处理。该音乐编辑程序为根据本发明的音乐编辑方法的实施例。
首先,CPU 2的混音处理部分20使混音模式读取部分22从混音模式存储部分7读取混音模式文件7a,并获得混音模式文件7a(在步骤S1)。其后,CPU 2使同步再现控制部分9获得歌曲,例如,第一首歌曲(在步骤S2)。当存在另一首歌曲(在步骤S3为“是”)时,CPU 2使同步再现控制部分9的主节拍产生部分90决定速度(在步骤S4)。可将速度固定为140或者用户可指定速度。其后,CPU 2获得连接模式(在模式文件中描述)(在步骤S5)。
由于已决定连接歌曲的模式,所以CPU 2获得歌曲的元数据(在步骤S6)。例如,获得歌曲B的元数据。其后,CPU 2基于混音模式文件确定是否需要效果处理(在步骤S7)。当需要(是)时,CPU2使效果处理部分100实现预定的效果(在步骤S8)。
其后,CPU 2基于混音模式文件确定是否需要音量渐变处理(在步骤S9)。例如,当编辑歌曲A和歌曲B使它们叠合时,CPU 2选择是否需要提高或降低歌曲音量的音量渐变。当需要(是)时,CPU2设置渐变参数(在步骤S10)。虽然假设音量自动提高或降低,但是CPU 2设置渐变参数。
CPU 2将歌曲的原始速度设置到同步再现控制部分9的主节拍产生部分90(在步骤S11)。歌曲的原始速度已被添加到歌曲的元数据。其后,CPU 2获得同步再现控制部分9的前述三个声道的自由音频信号产生部分。在上述具体例子中,CPU 2从三个声道获得自由音频信号产生部分,并将要再现的歌曲设置到所获得的音频信号产生部分(在步骤S13)。
在获得每首歌曲的当前再现位置(在步骤S14)后,CPU 2确定准备下一首歌曲的点是否已发生(在步骤S15)。当SE例如为渐变切换时,它在相关小节之前的几个小节结束。当SE例如为切入时,由于它立即开始,所以CPU 2可在它之前的一个小节准备SE。当然,同时再现就是歌曲的再现被同时进行的再现。CPU 2确定这样的点是否发生。当准备歌曲的点还没有发生时,处理流程返回到步骤S14。在步骤S14,CPU 2等待,直到这样的点发生。当准备下一首歌曲的点发生(是)时,处理流程返回到步骤S2。
图5是显示基于时间的元数据30的示意图。如上所述,元数据30为添加到歌曲的基于时间的辅助数据。元数据30不仅描述速度,而且还描述节拍的位置、小节的开头位置信息以及前奏和易记部分的曲调信息。小节/节拍31表示一个小节的节拍号。“11”表示第一小节的第一拍。“14”表示第一小节的第四拍。同样,“21”表示第二小节的第一拍。具体地讲,“11”和“21”表示每小节的第一拍。属性32表示以下位置上的实体,所述位置即小节的开头、正常节拍、曲调或主旋律(易记部分)的位置。“01800001”作为“11”和“21”的属性代表小节的开头。当以44.1KHz对歌曲进行采样时,每秒的采样数为44100。以采样为单位描述位置。以文本格式或二进制格式描述图5中显示的元数据30。
图6显示基于时间的元数据的具体例子。图6显示音频信号40以及节拍41和42的基于时间的元数据。音频信号40随着时间流逝从左到右变化,节拍搭载在音频信号40上。在图6中,长线41表示小节的开头,短线42表示固定的节拍。与歌曲的采样位置相关联地存储小节的开头41和其它节拍42(在四拍的情况下,在小节的开头之后的四分音符时刻的三个节拍)的位置。
图7也是显示基于时间的元数据的具体例子的示意图。音频信号50不仅可包含节拍位置55,而且还可包含表示曲调组成的位置信息,所述曲调组成例如是歌曲的前奏51、A曲调52和53、B曲调54和主旋律(易记部分)。通过这个信息,可获得目标歌曲的小节的位置和特定曲调的起始位置。
在具有图1中显示的结构等的音乐编辑设备1中,元数据被存储在歌曲元数据存储部分6中。作为替代,可如图8A、图8B和图8C所示存储元数据。图8A显示这样的例子,即,元数据71和歌曲数据72在逻辑上分离,但如在MP3中那样在物理上存在于相同介质中。图8B显示这样的例子,即,如在MPEG4中那样元数据73与歌曲数据74共存。图8C显示这样的例子,即,检索与歌曲数据76对应的元数据75,例如通过网络检索。在这种情况下,歌曲数据和元数据在逻辑上和物理上彼此分离。这种结构应用于具有连接至诸如因特网等网络的网络通信部分的音乐编辑设备80和110(稍后将描述)。这种结构允许根据歌曲ID从网络上的站点下载元数据。
图9是显示混音模式文件的具体例子的示意图。虽然元数据直接对应于一首歌曲,但是用户可自由地创建混音模式。因而,无论歌曲如何,用户都可创建混音模式。换句话说,混音模式文件是以用户期望的方式连接歌曲的文件。在混音模式60中,歌曲ID(文件)61的ID_A至ID_E可分别与歌名A至E相同。作为替代,ID_A至ID_E可以是绝对文件名或文件路径。再现部分62表示将被再现的歌曲的位置。在该例子中,对歌曲A指定“易记部分”的位置,对歌曲B指定“前奏”的位置,对歌曲C指定“第8节至第20节”的位置,对歌曲D指定所有的位置,对歌曲E指定“易记部分”的位置。再现效果63指定将什么效果应用于每首歌曲的每个部分。连接方法(模式)64表示歌曲A为渐变切换,用渐变切换连接歌曲A和歌曲B,用切入连接歌曲B和歌曲C,用渐变切换连接歌曲C和歌曲D,通过同时再现歌曲D和歌曲E的易记部分来连接歌曲D和歌曲E。另一方面,连接效果65指定当歌曲被连接时,混响、低切(low-cut)和失真被用作效果。连接SE 66指定音效。
当指定图9中显示的模式时,如下执行实际再现。“再现ID_A的易记部分。→在ID_A的易记部分差不多结束时,用渐变切换再现ID_B的前奏。→在ID_B的前奏结束时,开始ID_C的第八节的再现。→在ID_C的20个小节之后的几个小节用渐变切换再现ID_D。同时,将SE_A与ID_D混合。→当再现ID_D的易记部分时,还再现ID_E的易记部分。”
因而,可以说,混音模式是将以什么方式连接歌曲的什么部分的指定添加到传统播放列表的概念实体。
图10是显示通过根据本发明的创建编辑信息的方法而创建的编辑信息的数据结构的示意图。数据结构对应于图9中显示的具体例子的ID_A、ID_B和ID_C的歌曲。
在图10中,将歌曲分级为歌曲列表层120、歌曲层130和曲调块层140。歌曲被分级成树形,各个分级层的处理不同。树的每个节点包括控制参数部分和数据实体部分,控制参数部分对应于来自音乐编辑设备的接口的输入实时地产生歌曲创作方法和歌曲前进方法,数据实体部分是创作歌曲的声音素材。另外,节点分为可同时在同级层处理的节点和不能同时在同级层上处理的节点。
在图10中,歌曲及其连接顺序被分级成以下三层,在这三层中对歌曲及其连接顺序进行管理。歌曲列表层120为最高层,它包括歌曲层的连接顺序。在歌曲列表层120中,可改变歌曲之间的效果,以通过匹配例如它们的渐变切换或BPM来实现同时再现。可由根据几首歌曲创建了歌曲层的歌曲规则(比如,唱片集和歌曲之间的关系)的创建者或第三方(用户或另一创建者)来创建歌曲列表层的规则库,以描述动态使用各首歌曲所依据的规则。
作为现有概念,歌曲层130对应于一首歌曲。歌曲层130与歌曲列表层120的不同之处在于:一首歌曲是由同一创建者创建的并且是完整的。从这个观点来讲,歌曲列表层120是在上面连接多首歌曲的一层,并且是歌曲层130的上层。因而,歌曲层130由数据块和动作组成,现有歌曲例如“ID_A”通过这些动作被布置成特定方式。
曲调块层140由构成歌曲层130的歌曲块组成,歌曲层130为曲调块层140的上层。例如,通常的歌曲具有定义的结构,例如,所谓的“前奏”、“A曲调”、“易记部分”和“吉它独奏”的定义结构。在这种系统中,由于根据这样的结构拆分和存储歌曲,所以可以用宏对歌曲进行编辑,例如使得以一首歌曲的前奏替换另一首歌曲的前奏,或者重复歌曲的易记部分。
歌曲列表层120具有控制参数部分121。控制参数部分121定义用来控制混音数据部分122的参数,混音数据部分122为代表混音的例子的对象。如稍后将描述的,歌曲层130描述ID_A 132、ID_B 134和ID_C 136的歌曲数据实体(对象)。在混音数据部分122中使用这些ID_A 132、ID_B 134和ID_C 136来描述混音的实体。在控制参数部分121中描述用来控制混音数据部分122的控制参数。
控制参数部分121描述再现顺序,例如,ID_A→ID_B→ID_C。这与以上示出的图9中显示的示例的顺序部分相同。作为连接模式,ID_A→ID_B指定渐变切换模式,ID_B→ID_C指定切入模式。作为连接效果,ID_A→ID_B指定混响,ID_B→ID_C指定低切。作为连接SE,ID_A→ID_B和ID_B→ID_C不指定任何东西。
歌曲层130描述控制参数部分131、133和135。控制参数部分131、133和135包括歌曲列表层的混音数据部分122。控制参数部分131、133和135定义用于控制作为实体的对象ID_A 132、ID_B 134和ID_C 136的控制参数。
控制参数部分131将ID_A 132的歌曲的再现部分指定为主旋律(易记部分)。然而,控制参数部分131不指定再现效果。控制参数部分133将ID_B 134的歌曲的再现部分指定为前奏。控制参数部分133将再现效果指定为低切。控制参数部分135将ID_C 136的歌曲的再现部分指定为第八小节至第20小节。控制参数部分135不指定再现效果。
曲调块层140具有自由控制参数部分141、143、145、147、149、151、153和155。在该例子中,由于对应于混音模式静态执行处理,所以曲调块层140的控制参数部分不需要参数。连接至各参数部分的是作为控制实体的前奏部分142、A曲调部分144、B曲调部分146、易记部分148、结束部分150、前奏部分152、A曲调部分154和易记部分156。
图11显示用XML描述的混音模式文件的描述的例子。-<song_list_id=“SONG_LIST_1”>定义歌曲列表1。<controllertransition=“ID_A:ID_B”pattern=“CORSS_FADE”effect=“REVERB”se=“”/>将ID_A→ID_B指定为渐变切换模式,将效果指定为混响。
另外,<controller transition=“ID_B:ID_C”pattern=“CUT_IN”effect=“LOW_CUT”se=“”/>将ID_B→ID_C指定为切入模式,将效果指定为低切。
另外,<song id=“ID_A”>定义ID_A的再现。<controllerplay_segment=“MELODY_BLOCK:A”effect=“”/>指定A曲调块和无效果。<melody type=“INTRO”/>指定前奏,<melody type=“A”/>指定A曲调,<melody type=“B”/>指定B曲调,<melody type=“SABI”/>指定易记部分,<melody type=“ENDING”/>指定结束。
另外,<song id=“ID_B”>定义ID_B的再现。<controllerpaly_segment  =“MELODY_BLOCK  :INTRO”effect=“LOW_CUT”/>定义以低切效果再现前奏。另外,<melody type=“INTRO”/>指定前奏,<melody type=“A”/>指定A曲调,<melodytype=“SABI”/>指定易记部分。
另外,<song id=“ID_C”>指定ID_C。<controller play_segment=“BAR:8-20”effect=“”/>将歌曲的再现部分指定为第八小节至第20小节,但没有效果。
图12显示直到合奏层和乐器层以及歌曲列表层、歌曲层和曲调块层的分级结构。在合奏层中,从诸如前奏和易记部分的歌曲结构单元的观点来讲,例如,第一易记部分可以是钢琴,根据重奏的数量,第二易记部分可以是喇叭部分,而不是钢琴。作为替代,紧邻在重奏后的另一曲调块之前的几个小节可以不同于第一重奏的几个小节。
乐器层是为构成合奏层的每个乐器记录的一组音频素材。乐器层可指定特定的文件实体。作为替代,可给予乐器层检索条件,诸如“欢快的八拍吉他”。
图13显示音乐编辑设备1基于通过根据本发明的创建编辑信息的方法创建的编辑信息,具体地讲,基于混音模式文件的控制过程的例子。在该例子中,通过指定多首歌曲的连接方法,连续地再现这些歌曲。
首先,用户选择歌曲列表(在步骤S40)。其后,选择在图10和图12中显示的歌曲层的控制参数部分中指定的连接方法和歌曲(在步骤S41)。指定的连接方法包括效果信息,该效果信息指定在歌曲结束之前从什么小节开始执行渐变切换以及以什么方式产生什么声音(例如,与小节的开头的节拍对应地再现声音N次)。
其后,按曲调块、合奏和乐器的顺序选择歌曲的结构元素,并再现歌曲(在步骤S42、步骤S43和步骤S44)。只要歌曲结束条件为“继续”,则重复这些处理。当在步骤S45歌曲结束条件变为“结束”时,流程前进到步骤S41,“选择连接方法和歌曲”。结果,根据指定的连接方法开始新的歌曲的再现。
图14显示直观实现根据本发明的创建编辑信息的方法的创作工具的GUI结构的例子。这是指定连接歌曲和再现这些歌曲的方法的例子。在屏幕160上,可指定歌曲列表名161、歌名162、当前歌曲连接至下一首歌曲的效果163和用于连接歌曲的音频文件164。
因而,在混音模式数据作为具有图10中显示的数据结构的编辑信息的情况下,由于现有歌曲的布置改变,所以可将新的欣赏方式提供给用户。另外,创建者可根据来自传感器和/或歌曲创建和再现设备的接口的输入来指定布置的变化。另外,由于多首歌曲被连接和再现,所以用户可像DJ一样容易地享受歌曲的再现方法。
接下来,参考图15至图22,将简要地描述连接歌曲的方法的具体例子。在传统的音乐再现中,如图28所示,用两首歌曲A和B的原始速度再现歌曲A和B,最可能的情况是在两首歌曲A和B之间存在没有声音的区间。虽然可使用特别的再现设备的机制去除没有声音的区间而连接歌曲,但是许多歌曲在开头和结尾具有没有声音的区间。由于这些歌曲部分包含没有声音的区间,所以这是不可避免的。
在具有图1中显示的结构的音乐编辑设备1中,如图15所示,当使所有歌曲的速度与用户或系统决定的公共速度匹配并且以使这些歌曲的节拍位置(强拍位置)匹配这样的方式用匹配的速度而不是它们的原始速度再现歌曲时,可无缝地连接这些歌曲,而不会使用户感觉到不适。
为了这样做,音乐编辑设备1以使它们的节拍同步这样的方式再现歌曲A和歌曲B。为了与具有不同速度的歌曲的节拍同步地再现这些歌曲,需要知道它们的原始速度和它们的节拍位置。另外,为了匹配将被再现的歌曲的速度和节拍位置,需要改变歌曲的再现速度。
为了知道歌曲的原始速度和节拍位置,音乐编辑设备1使用与歌曲配对的基于时间的元数据。当再现歌曲时,基于它们的原始速度与当前主节拍速度的比率改变它们的再现速度,并对歌曲的小节的开头位置进行匹配。
如上所述,准确地处理多首歌曲的速度和节拍位置,并实时地控制它们的再现位置,从而使它们的节拍同步。假设无缝连接歌曲的方法是基于使它们的节拍同步的方法。
图16显示在使歌曲A和歌曲B的节拍匹配的同时通过渐变切换处理连接它们的例子。在当前歌曲A正被渐出(音量逐渐降低)的同时,下一首歌曲B正被渐入(音量逐渐提高)。当同时再现歌曲A和歌曲B时,获得无缝切换它们的效果。渐变切换是广泛用于例如FM广播的技术。本发明的要点在于,由于歌曲A和歌曲B的速度和节拍位置被匹配,所以它们被无缝连接,而不使用户感觉到不适。
音乐编辑设备1可执行图17中描绘的切入处理。当歌曲A、歌曲B和歌曲C的音乐连接是清楚的时,可优选地如图17所示直接连接它们,而不通过渐变切换处理连接它们。另外,可在节拍结束时有意地停止歌曲,并可在下一拍开始时开始下一首歌曲。
如上所述,音乐编辑设备1以上述音效(SE)连接歌曲。换句话说,不仅可在歌曲之间设置音效(SE),而且还可在歌曲的连接部分和歌曲的任何部分设置音效(SE)。
图18是在歌曲A和歌曲B以及歌曲B和歌曲C之间设置音效的例子。图19是在歌曲A和歌曲B之间设置SE并通过渐变切换处理连接它们的例子。当然,在这种情况下,可使音效与主节拍速度同步。当在歌曲之间设置或重叠SE时,如果它们的曲调极大改变,则通过使音效与主节拍速度同步,可更自然地连接这些歌曲。
另外,音乐编辑设备1可执行同时再现。在这种情况下,如图20所示,以使不同歌曲的节拍同步这样的方式同时再现这些歌曲。由于使歌曲的速度和节拍位置同步,所以用户可感觉它们好像是独立的歌曲一样。
另外,如图21所示,音乐编辑设备1可在一首歌曲A中设置效果。在这种情况下,音乐编辑设备1将效果(音效)应用于声音A的一部分或全部以改变声音质量。这个音效包括强调歌曲的低音和高音的处理以及改变音质例如混响、延迟、失真和最大化的处理。
尽管将混响作为效果应用于音乐A、将低切滤波器作为效果应用于音乐B,但是由于音乐编辑设备1可以以多种方式同时再现它们或者连接它们,所以音乐编辑设备1可实现较以前更自然、更吸引人的连接方法。
另外,音乐编辑设备1不仅可将前述连接方法应用于整首歌曲,而且还可如图22所示将前述连接方法应用于每首歌曲的易记部分或前奏。当连接歌曲的多个部分时,例如,只有易记部分可被混音。
如上所述,音乐编辑设备1可基于描述混音模式的混音模式文件无缝地对歌曲进行混音。在这种情况下,音乐编辑设备1可决定用户指定的或者与主要歌曲的速度对应的主节拍速度。
这样,通过音乐编辑设备1,用户不仅可以以传统方式欣赏音乐,而且还可以以以下新类型的方式欣赏音乐。与传统方式不同,这种新类型的方式不能仅通过被动地听音乐来实现。这种新类型的方式允许用户主动地将他或她自己参与到音乐中,根据他或她的生活方式创建听音乐的方法,满足他或她的表现欲。
换句话说,用户可时髦地连接他或她喜欢的歌曲部分,并收听这些无缝混音音乐。另外,通过音乐编辑设备1,用户可满足他或她的通过不断尝试来选择歌曲的连接方法和时髦地创建混音的创作欲望。
图23显示根据本发明的实施例的另一音乐编辑设备80的结构。图24是音乐编辑设备80的功能框图。音乐编辑设备80具有可连接至因特网82的网络通信部分81。
由于音乐编辑设备80具有网络通信部分81,所以用户可通过诸如因特网82的网络交换和/或共享混音模式文件,第三方可下载由另一用户创建的混音并欣赏它。作为替代,可使用由内容服务方而不是私人用户提供的混音模式。
通过音乐编辑设备80,可实现新的基于音乐的通信,通过该通信,在因特网等上发布歌曲的连接方法,其他人共享这些连接方法,并且多个人创作混音并对混音进行评价。
图25和图26分别显示另一音乐编辑设备110的硬件结构和功能框图。音乐编辑设备110具有通过A/D转换器111从传感器112获得传感器值的结构。音乐编辑设备110在功能上具有传感器值获取部分。
在例如题为“reproduction state controlling apparatus andreproduction sate controlling method”(公开号为2005-156641的日本专利申请)的发明中,传感器值获取部分113基于这样的技术,即,使用加速度传感器检测行走速度,并与行走速度对应地改变歌曲的速度。当应用该例子时,可与行走速度对应地改变主节拍产生部分的速度,并可与行走速度和慢跑速度对应地以混音方式再现所有歌曲。另外,如在“reproducing apparatus and reproducing method for audiosignal”(公开号为2005-363094的日本专利申请)中那样,可应用与行走速度或慢跑速度对应地选择歌曲的发明。
为了应用这些技术,传感器是必要的。当将这些发明的传感器和算法应用于本发明的系统时,可与用户的状态对应地选择歌曲,可以以混音的方式连接所选择的歌曲,并可无缝地再现它们。
图27A和图27B为显示具有传感器优先模式的音乐编辑设备110的处理的流程图。除了混音模式优先模式之外,这些处理还具有传感器优先模式。这些处理例如根据用户选择的模式而改变。在传感器优先模式中,传感器检测例如行走模式或慢跑模式,音乐编辑设备110对应于检测的模式改变节拍。
首先,确定音乐编辑设备110的模式是传感器优先模式还是模式优先模式(在步骤S311)。在这种情况下,传感器优先模式是基于根据用户在行走还是在慢跑来选择歌曲的技术。传感器决定歌曲的顺序并选择歌曲。因而,可不对应于一种模式来决定歌曲。可建议动态改变它们。换句话说,作为一种构思,音乐编辑设备110利用从传感器读取的值动态地创建模式文件,而不读取预定的模式文件。
当在步骤S311选择模式优先模式而不是传感器优先模式时,执行图4中显示的相同处理。
接下来,将描述在步骤S311或步骤S312选择传感器优先模式的情况。在这种情况下,对应于慢跑自动选择歌曲,并对应于慢跑自动连接所选择的歌曲。
作为子例程,与来自传感器的输入相对应地决定歌曲和它们的速度(在步骤S313)。当在步骤S314的确定结果表示存在另一首歌曲时,流程前进到步骤S315。在步骤S315,设置主节拍速度。在这种情况下,主节拍速度已被检测并与行走速度相对应地进行设置。在这种情况下,由于不总是通过预定的连接方法连接歌曲,所以自动决定速度(在步骤S316)。例如,在慢走模式下,可通过渐变切换处理简单地连接所有歌曲。作为替代,由于下一首歌曲的元数据表示它被渐入,所以可简单地叠合歌曲。由于步骤S317之后的处理与图4的从步骤S6至步骤S15的处理相同,所以将省略它们的描述。
这样,通过音乐编辑设备110,对应于慢跑速度选择歌曲,并无缝地连接所选择的歌曲。因而,由于歌曲不扰乱慢跑的紧张状态和速度,所以用户可舒适地享受慢跑。通过特定类型的传感器,可创建与另一有节律的运动(例如,舞蹈)或用户的心率而不是慢跑对应的混音。
与来自传感器的输入对应地选择歌曲,使所选择的歌曲的速度与慢跑的速度匹配,并用调整的速度对歌曲进行混音。因而,用户可欣赏与他或她的速度相对应的喜爱歌曲。
另外,可执行计时器混音再现。假设用户想在他或她的30分钟路程内收听唱片集的播放列表的歌曲。传统上,如果唱片集的持续时间为60分钟,则他或她不得不在30分钟后停止再现歌曲。相反,根据本发明,可通过选择歌曲的速度和多个部分来创建混音,从而歌曲的再现持续时间变为30分钟。可将计时器混音再现应用于慢跑。当用户仅想慢跑30分钟时,可创建与慢跑速度对应的30分钟的歌曲混音。
可创建30分钟路程内的仅仅歌曲的易记部分的混音,从而当用户到达目的地时混音结束。另外,随着当前时间逼近到达时间,可以以逐渐降低歌曲的速度或者叠合特定SE这样的方式来创建允许用户感觉到他或她正靠近目的地的气氛。
如上所述,通过音乐编辑设备80和110,可实现新的基于音乐的通信,通过该通信,发布歌曲的连接方法,例如,在因特网上发布,其他人共享这些连接方法,多个人创建混音,他们对这些混音进行评价。另外,通过传感器,用户可收听到特别适合他或她的情形和状态的音乐。
这些特征将对用户享受专业创建者和音乐人创建的作品的传统世界产生新的冲击,并将允许用户体验到新的世界并欣赏结果,在所述新的世界中,他或她重复使用并且重新创作他们的作品作为他或她自我展现的素材。
当以这样的新类型的音乐得到消遣的用户增加时,整个音乐行业将变得充满活力。另外,从音乐行业一方的角度来讲,存在这样的可能性,即,将存在允许用户方进行重新创作以及新的创建者创建这样的作品的音乐工作。因而,存在这样的可能性,即,行业和用户可建立新的音乐文化。
最后,将描述可用在根据本发明的音乐编辑设备中的特征。该音乐编辑设备为具有再现部分的歌曲创建和再现设备,所述再现部分使存储在存储部分中的多首歌曲的速度和强拍与预定时序匹配,将得到的歌曲存储在多个再现控制部分中,并同步地同时再现所述多首歌曲。另外,歌曲的特征在于,每首歌曲的全部或部分被使用。另外,歌曲的特征在于,它们不限于音乐创作的歌曲,而是包括诸如音效、对话和公告的声音。
另外,所述音乐编辑设备的特征在于,当执行同步再现时,可在任何歌曲开始位置和任何歌曲的任何时刻开始/停止声音产生。另外,可具体以一个小节、一个节拍和一个曲调组成单位为单位指定音乐开始部分和时序。
另外,通过前述特征,在正在再现某首歌曲时,可在任何时刻同时再现另一首歌曲的任何部分。同样,通过前述特征,可停止正被再现的歌曲的任何部分的再现,并可无缝地再现另一首歌曲的任何部分。
另外,所述音乐编辑设备的特征在于:在它正在执行前述同步再现时,它可离散地调整它同时再现的每首歌曲的音量。通过音量调整,在所述设备正在执行同时再现的同时,它可降低它当前正再现的歌曲的音量,提高下一首歌曲的音量,组合得到的歌曲,并再现它们。
另外,所述设备的特征在于:在它正在执行同步再现时,它可将效果处理作为信号处理应用于每首歌曲以用于同步再现。另外,所述设备的特征在于,在它正在执行同步再现时,它基于包括为每首歌曲记录的速度、小节、强拍位置、曲调组成变化位置信息等的元数据控制时序。
所述音乐编辑设备的特征在于:元数据和歌曲被记录在相同的文件或不同的文件中,通过数据库和标识符管理它们之间的关系,基于描述歌曲创建和再现方法的模式文件实时地控制歌曲的范围、声音产生开始时刻、音量控制方法和用于同步再现的效果处理的类型。
另外,所述音乐编辑设备的特征在于:由用户指定速度,或者由所述设备自动决定速度,并且作为由所述设备自动决定的速度,使用来自传感器的输入数据。
传感器的特征在于:它可被添加到所述设备,传感器包括任何类型,诸如加速度传感器、陀螺仪传感器、心率传感器、体温传感器、身体运动传感器和脑波传感器。模式文件的特征在于:它不仅被记录在所述设备的存储部分中,而且还可从外部存储装置或者通过因特网获得。
描述歌曲的混音方法的文件的特征在于:当音乐编辑设备连续再现歌曲时,所述文件描述歌曲连接信息,该信息允许应用诸如渐变切换等效果或者允许另一声音被混合,以便无缝地再现歌曲,而不是离散地再现歌曲。
另外,所述音乐编辑设备的特征在于:用户可对应于用户对歌曲创建和再现设备的接口的操作以及来自置于歌曲创建和再现设备外部的传感器的输入,指定歌曲的再现位置和歌曲的连接方法。另外,所述音乐编辑设备的特征在于:可执行多种歌曲布置方法,例如在除歌曲连接部分之外的部分混合另一声音和歌曲、应用效果以及指定对这些控制参数的改变方法。

Claims (8)

1.一种音乐编辑设备,包括:
混音处理部分,其基于元数据和用于决定混音模式的文件来执行混音处理,所述元数据对应于歌曲数据而被预先产生并且包含至少一个基于时间的节拍位置;
同步再现控制部分,其产生主节拍,将主节拍发送到混音处理部分,并根据混音处理部分对应于混音模式和元数据而指定的混音处理,基于元数据的各个条目再现多首歌曲;和
混合部分,其混合由同步再现控制部分再现的歌曲,
所述混音处理部分的特征在于:所述混音处理部分基于被构造为分级层的混音模式文件执行混音处理,所述分级层中的每一级层具有控制参数部分和数据实体部分。
2.根据权利要求1所述的音乐编辑设备,其特征在于:所述混音处理部分具有处理元数据的元数据处理部分和读取混音模式的混音模式读取部分。
3.根据权利要求1所述的音乐编辑设备,其特征在于:所述同步再现处理部分具有主节拍产生部分和多个音频信号产生部分,其中所述主节拍产生部分产生主节拍,并将产生的主节拍提供给所述混音处理部分;所述多个音频信号产生部分产生多首歌曲的音频信号。
4.根据权利要求1所述的音乐编辑设备,还包括:
存储元数据的元数据存储部分;存储歌曲数据的歌曲存储部分;和存储混音模式的混音模式存储部分。
5.一种由音乐编辑设备创建被称为混音模式的编辑信息的方法,所述音乐编辑设备具有:
混音处理部分,其基于元数据和用于决定混音模式的文件来执行混音处理,所述元数据对应于歌曲数据而被预先产生并且包含至少一个基于时间的节拍位置;
同步再现控制部分,其产生主节拍,将主节拍发送到混音处理部分,并根据所述混音处理部分对应于混音模式和元数据而指定的混音处理,基于元数据的各个条目再现多首歌曲;和
混合部分,其混合由所述同步再现控制部分再现的歌曲,
所述方法的特征在于:通过使构成上级层的数据实体部分的下级层的控制参数部分对同级层的数据实体部分进行处理来创建被构造为分级层的混音模式文件,所述分级层中的每一级层具有控制参数部分和数据实体部分。
6.根据权利要求5所述的创建编辑信息的方法,其特征在于,从最上层一侧往下看,所述分级层为歌曲列表层、歌曲层和曲调块层。
7.根据权利要求6所述的创建编辑信息的方法,其特征在于,歌曲列表层的控制参数部分用于控制混音数据实体部分,该混音数据实体部分包括歌曲层的多个控制参数部分,歌曲层的多个控制参数部分用于控制歌曲层的每个数据实体部分,并且在曲调块层中静态执行多个数据实体部分。
8.一种由音乐编辑设备记录被称为混音模式的编辑信息的记录介质,所述音乐编辑设备具有:
混音处理部分,其基于元数据和用于决定混音模式的文件来执行混音处理,所述元数据对应于歌曲数据而被预先产生并且包含至少一个基于时间的节拍位置;
同步再现控制部分,其产生主节拍,将主节拍发送到混音处理部分,并根据混音处理部分对应于混音模式和元数据而指定的混音处理,基于元数据的各个条目再现多首歌曲;和
混合部分,其混合由同步再现控制部分再现的歌曲,
其特征在于:记录在被构造为分级层的混音模式文件中的是通过使构成上级层的数据实体部分的下级层的控制参数部分对同级层的数据实体部分进行处理而创建的编辑信息,所述分级层中的每一级层具有控制参数部分和数据实体部分。
CN2006800452229A 2005-12-09 2006-12-07 音乐编辑设备、创建音乐编辑信息的方法及其记录介质 Expired - Fee Related CN101322179B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005356820 2005-12-09
JP356820/2005 2005-12-09
PCT/JP2006/324884 WO2007066813A1 (ja) 2005-12-09 2006-12-07 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体

Publications (2)

Publication Number Publication Date
CN101322179A true CN101322179A (zh) 2008-12-10
CN101322179B CN101322179B (zh) 2012-05-02

Family

ID=38122950

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006800452229A Expired - Fee Related CN101322179B (zh) 2005-12-09 2006-12-07 音乐编辑设备、创建音乐编辑信息的方法及其记录介质

Country Status (6)

Country Link
US (1) US7678983B2 (zh)
EP (1) EP1959427A4 (zh)
JP (1) JPWO2007066813A1 (zh)
KR (1) KR20080074975A (zh)
CN (1) CN101322179B (zh)
WO (1) WO2007066813A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101984490A (zh) * 2010-11-23 2011-03-09 亿览在线网络技术(北京)有限公司 一种逐字同步的歌词文件的生成方法及系统
CN102968995A (zh) * 2012-11-16 2013-03-13 新奥特(北京)视频技术有限公司 一种音频信号的混音方法及装置
CN103677797A (zh) * 2012-09-06 2014-03-26 索尼公司 音频处理装置、音频处理方法和程序
CN108322816A (zh) * 2018-01-22 2018-07-24 北京英夫美迪科技股份有限公司 广播节目中背景音乐的播放方法和系统
CN108831425A (zh) * 2018-06-22 2018-11-16 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
CN109545249A (zh) * 2018-11-23 2019-03-29 广州酷狗计算机科技有限公司 一种处理音乐文件的方法及装置
CN110472094A (zh) * 2019-08-06 2019-11-19 沈阳大学 一种传统音乐录入方法
CN112863466A (zh) * 2021-01-07 2021-05-28 广州欢城文化传媒有限公司 一种音频社交变声方法及装置

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9818386B2 (en) 1999-10-19 2017-11-14 Medialab Solutions Corp. Interactive digital music recorder and player
US8139793B2 (en) 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US8160269B2 (en) * 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US8233642B2 (en) 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US9065931B2 (en) * 2002-11-12 2015-06-23 Medialab Solutions Corp. Systems and methods for portable audio synthesis
JPWO2007066813A1 (ja) * 2005-12-09 2009-05-21 ソニー株式会社 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体
JP5259083B2 (ja) * 2006-12-04 2013-08-07 ソニー株式会社 マッシュアップ用データの配布方法、マッシュアップ方法、マッシュアップ用データのサーバ装置およびマッシュアップ装置
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
JP4311466B2 (ja) * 2007-03-28 2009-08-12 ヤマハ株式会社 演奏装置およびその制御方法を実現するプログラム
US7956274B2 (en) * 2007-03-28 2011-06-07 Yamaha Corporation Performance apparatus and storage medium therefor
CN101681663B (zh) * 2007-05-22 2013-10-16 皇家飞利浦电子股份有限公司 处理音频数据的设备和方法
US20090062943A1 (en) * 2007-08-27 2009-03-05 Sony Computer Entertainment Inc. Methods and apparatus for automatically controlling the sound level based on the content
US20090164902A1 (en) * 2007-12-19 2009-06-25 Dopetracks, Llc Multimedia player widget and one-click media recording and sharing
EP2304726A1 (en) * 2008-05-16 2011-04-06 Tonium AB Audio mix instruction file with timing information referring to unique patterns within audio tracks
JP4596044B2 (ja) 2008-06-03 2010-12-08 ソニー株式会社 情報処理システム、情報処理方法
JP4596043B2 (ja) * 2008-06-03 2010-12-08 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP4600521B2 (ja) 2008-06-03 2010-12-15 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP2010054530A (ja) * 2008-08-26 2010-03-11 Sony Corp 情報処理装置、発光制御方法およびコンピュータプログラム
US7939742B2 (en) * 2009-02-19 2011-05-10 Will Glaser Musical instrument with digitally controlled virtual frets
KR101040086B1 (ko) * 2009-05-20 2011-06-09 전자부품연구원 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치
JP4537490B2 (ja) * 2009-09-07 2010-09-01 株式会社ソニー・コンピュータエンタテインメント オーディオ再生装置およびオーディオ早送り再生方法
FR2963471A1 (fr) * 2010-08-02 2012-02-03 Nevisto Sa Procede et dispositif automatique de production d'une bande son par combinaison de composantes sonores
US8805693B2 (en) * 2010-08-18 2014-08-12 Apple Inc. Efficient beat-matched crossfading
US8458221B2 (en) * 2010-10-13 2013-06-04 Sony Corporation Method and system and file format of generating content by reference
WO2013114421A1 (ja) * 2012-01-30 2013-08-08 パイオニア株式会社 表示システム、表示制御装置、音響機器、表示方法およびプログラム
US9405501B2 (en) * 2012-06-01 2016-08-02 Songalbum, Llc System and method for automatic synchronization of audio layers
US20140229393A1 (en) * 2013-02-11 2014-08-14 James E. Malackowski Ip content discovery platform
US9502017B1 (en) * 2016-04-14 2016-11-22 Adobe Systems Incorporated Automatic audio remixing with repetition avoidance
US10545720B2 (en) * 2017-09-29 2020-01-28 Spotify Ab Automatically generated media preview
CN109147745B (zh) * 2018-07-25 2020-03-10 北京达佳互联信息技术有限公司 歌曲编辑处理方法、装置、电子设备及存储介质
JP7375004B2 (ja) * 2019-05-14 2023-11-07 AlphaTheta株式会社 音響装置および音響再生プログラム
CN110517657B (zh) * 2019-08-15 2024-01-16 上海若安文化传播有限公司 音乐文件的节拍配置/播放方法、系统、介质及设备
US10997986B2 (en) * 2019-09-19 2021-05-04 Spotify Ab Audio stem identification systems and methods
US11238839B2 (en) 2019-09-19 2022-02-01 Spotify Ab Audio stem identification systems and methods

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3446278B2 (ja) * 1993-12-28 2003-09-16 ヤマハ株式会社 自動演奏装置
IT1282613B1 (it) * 1996-02-13 1998-03-31 Roland Europ Spa Apparecchiatura elettronica per la composizione e riproduzione automatica di dati musicali
JP3861381B2 (ja) * 1997-06-13 2006-12-20 ヤマハ株式会社 カラオケ装置
JP3698553B2 (ja) 1998-08-05 2005-09-21 ヤマハ株式会社 カラオケ装置
JP3610841B2 (ja) 1999-10-13 2005-01-19 ヤマハ株式会社 自動演奏装置及び方法
US8006186B2 (en) * 2000-12-22 2011-08-23 Muvee Technologies Pte. Ltd. System and method for media production
US6888999B2 (en) * 2001-03-16 2005-05-03 Magix Ag Method of remixing digital information
JP3778024B2 (ja) 2001-07-30 2006-05-24 ソニー株式会社 情報処理装置及び情報処理方法、並びに記憶媒体
US20040205648A1 (en) * 2001-08-17 2004-10-14 David Tinsley Systems and methods for authoring content
JP4646099B2 (ja) * 2001-09-28 2011-03-09 パイオニア株式会社 オーディオ情報再生装置及びオーディオ情報再生システム
JP2004172668A (ja) * 2002-11-15 2004-06-17 Matsushita Electric Ind Co Ltd 着信音生成回路及び記録媒体
JP4226313B2 (ja) * 2002-12-19 2009-02-18 株式会社ソニー・コンピュータエンタテインメント 楽音再生装置及び楽音再生プログラム
JP3901098B2 (ja) 2003-01-17 2007-04-04 ヤマハ株式会社 楽音編集システム
CN1523909A (zh) * 2003-02-18 2004-08-25 手机及微型电子产品的电子音乐铃声导入方法及装置
US7208672B2 (en) * 2003-02-19 2007-04-24 Noam Camiel System and method for structuring and mixing audio tracks
US20040254660A1 (en) * 2003-05-28 2004-12-16 Alan Seefeldt Method and device to process digital media streams
JP2005156641A (ja) 2003-11-20 2005-06-16 Sony Corp 再生態様制御装置及び再生態様制御方法
CN100362567C (zh) * 2004-04-07 2008-01-16 杭州斯达康通讯有限公司 一种合成和弦手机铃声的方法
AU2006290272B2 (en) * 2005-09-15 2012-07-05 Digital Layers Inc. A method, a system and an apparatus for delivering media layers
US8762403B2 (en) * 2005-10-10 2014-06-24 Yahoo! Inc. Method of searching for media item portions
US20070083380A1 (en) * 2005-10-10 2007-04-12 Yahoo! Inc. Data container and set of metadata for association with a media item and composite media items
US7844820B2 (en) * 2005-10-10 2010-11-30 Yahoo! Inc. Set of metadata for association with a composite media item and tool for creating such set of metadata
US20070083537A1 (en) * 2005-10-10 2007-04-12 Yahool, Inc. Method of creating a media item portion database
KR20080074977A (ko) * 2005-12-09 2008-08-13 소니 가부시끼 가이샤 음악 편집 장치 및 음악 편집 방법
JPWO2007066813A1 (ja) * 2005-12-09 2009-05-21 ソニー株式会社 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体
US20070208564A1 (en) * 2006-03-06 2007-09-06 Available For Licensing Telephone based search system
JP4487958B2 (ja) * 2006-03-16 2010-06-23 ソニー株式会社 メタデータ付与方法及び装置
US20070261537A1 (en) * 2006-05-12 2007-11-15 Nokia Corporation Creating and sharing variations of a music file
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
US8426715B2 (en) * 2007-12-17 2013-04-23 Microsoft Corporation Client-side audio signal mixing on low computational power player using beat metadata

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101984490A (zh) * 2010-11-23 2011-03-09 亿览在线网络技术(北京)有限公司 一种逐字同步的歌词文件的生成方法及系统
CN103677797A (zh) * 2012-09-06 2014-03-26 索尼公司 音频处理装置、音频处理方法和程序
CN103677797B (zh) * 2012-09-06 2017-07-07 索尼公司 音频处理装置、音频处理方法
CN102968995B (zh) * 2012-11-16 2018-10-02 新奥特(北京)视频技术有限公司 一种音频信号的混音方法及装置
CN102968995A (zh) * 2012-11-16 2013-03-13 新奥特(北京)视频技术有限公司 一种音频信号的混音方法及装置
CN108322816B (zh) * 2018-01-22 2020-07-31 北京英夫美迪科技股份有限公司 广播节目中背景音乐的播放方法和系统
CN108322816A (zh) * 2018-01-22 2018-07-24 北京英夫美迪科技股份有限公司 广播节目中背景音乐的播放方法和系统
CN108831425A (zh) * 2018-06-22 2018-11-16 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
CN108831425B (zh) * 2018-06-22 2022-01-04 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
US11315534B2 (en) 2018-06-22 2022-04-26 Guangzhou Kugou Computer Technology Co., Ltd. Method, apparatus, terminal and storage medium for mixing audio
CN109545249A (zh) * 2018-11-23 2019-03-29 广州酷狗计算机科技有限公司 一种处理音乐文件的方法及装置
CN110472094A (zh) * 2019-08-06 2019-11-19 沈阳大学 一种传统音乐录入方法
CN110472094B (zh) * 2019-08-06 2023-03-31 沈阳大学 一种传统音乐录入方法
CN112863466A (zh) * 2021-01-07 2021-05-28 广州欢城文化传媒有限公司 一种音频社交变声方法及装置

Also Published As

Publication number Publication date
EP1959427A4 (en) 2011-11-30
CN101322179B (zh) 2012-05-02
EP1959427A1 (en) 2008-08-20
US20090044689A1 (en) 2009-02-19
US7678983B2 (en) 2010-03-16
KR20080074975A (ko) 2008-08-13
JPWO2007066813A1 (ja) 2009-05-21
WO2007066813A1 (ja) 2007-06-14

Similar Documents

Publication Publication Date Title
CN101322179B (zh) 音乐编辑设备、创建音乐编辑信息的方法及其记录介质
CN101326569B (zh) 音乐编辑设备和音乐编辑方法
CN101322180B (zh) 音乐编辑装置和音乐编辑方法
CN101454824B (zh) 用于自动产生音乐作品的方法和装置
CN101211643B (zh) 音乐编辑装置、方法及程序
Goto Active music listening interfaces based on signal processing
JP4489650B2 (ja) 歌詞文字に基づいて切り貼り編集を行うカラオケ録音編集装置
Huber The Midi manual: A practical guide to Midi within Modern Music production
Constantinou Working with sound in the DAW: Towards a new materiality of the audio-object
Théberge Transitions: The history of recording technology from 1970 to the present
Vinet The SemanticHIFI Project
US20240055024A1 (en) Generating and mixing audio arrangements
Luderman From Op shops to hip-hop: utilising used vinyl records to create a loop library
Hepworth-Sawyer Mixing as Part-History, Part-Present and Part-Future
Collins In the Box Music Production: Advanced Tools and Techniques for Pro Tools
Redhead The Interactive Music Producer
Vinet The SemanticHIFI project: content-based management and manipulation of musical recordings
KR20020027683A (ko) 인터넷상에서 하나의 곡에 대한 다양한 음악 정보 제공 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120502

Termination date: 20151207

EXPY Termination of patent right or utility model