WO1995029444A1 - Controleur d'acces memoire - Google Patents

Controleur d'acces memoire Download PDF

Info

Publication number
WO1995029444A1
WO1995029444A1 PCT/JP1995/000810 JP9500810W WO9529444A1 WO 1995029444 A1 WO1995029444 A1 WO 1995029444A1 JP 9500810 W JP9500810 W JP 9500810W WO 9529444 A1 WO9529444 A1 WO 9529444A1
Authority
WO
WIPO (PCT)
Prior art keywords
storage
information
storage medium
access
processing device
Prior art date
Application number
PCT/JP1995/000810
Other languages
English (en)
French (fr)
Inventor
Yoshiaki Sawada
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US08/557,124 priority Critical patent/US5784646A/en
Priority to EP95916045A priority patent/EP0706129A4/en
Priority to JP52752995A priority patent/JP3796551B2/ja
Publication of WO1995029444A1 publication Critical patent/WO1995029444A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99953Recoverability
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99956File allocation

Definitions

  • the present invention relates to an information storage processing device, and is particularly suitable for application to a network storage server based on a client / no server model.
  • a jukebox with a built-in magnetic disk and magneto-optical disk is used for a workstation.
  • a network file system server Part of the operating system on the workstation that connects to it is a network file system server that contains device drivers, its own file system, and file device management software.
  • This network file system server can use the storage file server of the computer connected to the network via the network as if it were the storage of the own computer. Use software that allows you to do this. Specifically, the storage of another computer is mounted on the directory on your computer via the network. This network file system server allows users to connect and use large-capacity network storage to their own computers via the network.
  • the first characteristic of this network file system server is that, while utilizing the high speed of the magnetic disk file server, it is possible to connect Lower the unit price.
  • all removable storage media in the jukebox (hereinafter referred to as removable media) are managed as one volume. This means that the system collectively manages the volume of removable media as expansion space on the magnetic disk, and users cannot use individual removable media freely.
  • the NFS server has a storage configuration in which semiconductor memories, magnetic disks, optical disks, magneto-optical disks, and the like are hierarchized by access speed, and the storage hierarchy management (HSM (Hierarchical CA)). Storage Management)) manages the resources of the server.
  • HSM Hierarchical CA
  • the file data of each client tends to increase on the online storage, but the files that are accessed infrequently are also kept on the online storage. As a result, the usage efficiency of online storage is reduced.
  • the removable storage media is collectively managed by the system, there is a problem that the client cannot explicitly handle the removable storage media of the client in the system.
  • the present invention has been made in view of the above points, and an object of the present invention is to propose an information storage processing device that can eliminate user unfairness and improve user convenience. Disclosure of the invention
  • the resources (2, 3, 4, 5, 6, 7, 8, 9) of information storage processing are divided and dynamically allocated to the user,
  • Various kinds of storage (2, 6, 7, 14) consisting of storage resources in information storage resources (2 to 9) are integrated by a file system and hierarchized according to speed and characteristics.
  • the file system is constructed on the hierarchical multi-type storage (2, 6, 7, 14), and the user can distinguish the multi-type storage (2, 6, 7, 14). Or, arbitrary files are accessed without distinguishing between file systems.
  • FIG. 1 is a block diagram showing a schematic configuration of an embodiment of an information storage processing device according to the present invention.
  • FIG. 2 is a block diagram showing the configuration of the information storage processing device.
  • FIG. 3 is a schematic diagram illustrating the division of resources in the information storage processing device.
  • FIG. 4 is a schematic diagram for explaining a software management module for divided resources in the information storage processing device.
  • FIG. 5 is a schematic diagram for explaining the integration of various types of multiple file systems in the information storage processing device.
  • FIG. 6 is a schematic diagram for explaining offline file management in the information storage processing device.
  • FIG. 7 is a schematic diagram for explaining online and offline storage media management in the information storage processing device.
  • FIG. 8 is a block diagram showing an automatic labeling mechanism in the information storage processing device.
  • FIG. 9 is a schematic diagram for explaining automatic adjustment of the online capacity in the information storage processing device.
  • FIG. 10 is a schematic diagram used for general description of a multiple file system according to another embodiment.
  • FIG. 11 is a block diagram for explaining staging of a file in the information storage processing device.
  • FIG. 12 is a schematic diagram for explaining the management of the removable storage in the information storage processing device.
  • FIG. 13 is a flowchart illustrating an information storage processing procedure in the information storage processing device.
  • FIG. 14 is a flowchart showing the garden manager generation processing procedure of FIG.
  • FIG. 15 is a schematic diagram showing the path map table created in FIG.
  • FIG. 16 is a flowchart showing the storage manager generation processing procedure of FIG.
  • FIG. 17 is a flowchart showing the mount processing procedure of FIG.
  • FIG. 18 is a ⁇ -chart showing the read / write access processing procedure of FIG.
  • FIG. 19 is a flowchart showing the cache check processing procedure of FIG.
  • FIG. 20 is a schematic diagram showing the cache data management list used in FIG.
  • Fig. 21 is a flow chart showing the processing procedure of the garden file system (GFS) in Fig. 18.
  • GFS garden file system
  • FIG. 22 is a flowchart showing the procedure for generating the media manager shown in FIG. 21.
  • FIG. 23 is a flowchart showing the offline processing procedure of FIG.
  • FIG. 24 is a schematic diagram illustrating the in-media management table of FIG.
  • FIG. 25 is a flowchart showing the lead cache processing procedure of FIG.
  • FIG. 26 is a chart showing a media access management table used in FIGS. 19 and 25.
  • FIG. 27 is a flowchart illustrating the write cache processing procedure of FIG.
  • FIG. 28 is a flowchart showing the actual light processing procedure of FIG. Fig. 29 is a flowchart showing the procedure of the media ejection process in Fig. 28.
  • FIG. 30 is a flowchart showing the other file system processing procedures in FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • reference numeral 1 denotes an information storage processing device as a whole. It has an autochanger 2 housed in a magneto-optical disk memory 2B, and has a second and a third storage medium as a second and a third storage, ie, a hard disk and a semiconductor random access.
  • Operating system, management software, etc. which has a hard disk memory 3 with a memory (RAM) and a semiconductor memory 4, and is stored in an internal memory 6 by a central processing unit (CPU) 5.
  • CPU central processing unit
  • data can be written to or read from a storage area of a magneto-optical disk and a semiconductor memory device.
  • a device called a jig box can be applied as the autochanger 2.
  • the information storage processing device 1 includes a plurality of types of storage in which the access time at the time of writing or reading is sequentially increased, that is, the semiconductor memory 4 and the hard disk memory. 3 and the magneto-optical disk memory 2 are managed via the bus 6 as one storage 7 as a whole.
  • the CPU 5 transfers data to be written or read to and from the storage 7 via the network interface 8 to a network constituted by, for example, Ethernet, FDDI (fiber distributed data interface), or the like.
  • a network constituted by, for example, Ethernet, FDDI (fiber distributed data interface), or the like.
  • NFS Network File System
  • the information storage processor 1 stores the data from the client of the file system in the magneto-optical disk memory 2B, which is the first storage medium, by the autochanger 2, and then stores the stored optical data.
  • the magnetic disk D M0 is taken out to the outside by the attachment / detachment device 2A and stored in the external storage unit by the operator, so that data can be stored outside.
  • the CPU 5 assigns the access information assigned to the extracted magneto-optical disk D M0 by the label printer 12 to the label L BL .
  • the printed label is supplied to the operator, so that the operator can store the supplied label LBL by attaching the label LBL to the removed magneto-optical disk DM0 .
  • the information storage processor 1 receives, from the clients 10, 11, and 12, access information for the data stored in the externally stored magneto-optical disk DM 0 , the access information was notified to the operator, thereby operator to the optical disk D M0 corresponding can be mounted locate easily in O over Tochiwenja second attachment apparatus 2 a.
  • the magneto-optical disk is divided as a working set of a plurality of resources, as shown by dividing lines L a, L b, and L c in FIG. 3, and a main body that manages the working set of the divided resources. Dynamically (ie, can be changed over time) to different software (hereafter called gardens).
  • the semiconductor Note Li 4 the storage capacity of hard Dodisukume mode Li 3 and magneto-optical disks Note Li 2 B, respectively dividing line L a, by being divided by L b and L c, the semiconductor memory 4 is four AR1 1 to AR1 4 Similarly, the hard disk memory 3 is cut out into four memory area portions AR 21 to AR 24, and the magneto-optical disk memory 2 B is further cut out into four memory area portions AR 31 to AR 34. It is cut out.
  • the server manager S VM is a module that manages the entire resources of the information storage device 1, and generates a plurality of gardens GDN1 to GDN3 that manage the working set of the divided resources.
  • the resources of the information storage processor 1 are divided and dynamically assigned to the gardens G DN 1, G DN 2,..., G DNK as a single set of resources.
  • the first garden G DN 1 has memory areas AR 11, AR 21, and AR 3 of the semiconductor memory 4, the hard disk memory 3, and the magneto-optical disk memory 2 B. 1 is assigned to the second garden G DN 2, and the memory area AR of the semiconductor memory 4, the hard disk memory 3, and the magneto-optical disk memory 2B
  • AR 22 and AR 32 are assigned to the Kth garden GDNK, and the memory areas AR 1 K, AR 2 K of semiconductor memory 4, hard disk memory 3 and magneto-optical disk memory 2 B And AR 3 K are assigned.
  • One GM is provided for each garden G DN, and the media manager M DM 1
  • the MDM 2 is provided for each slot secured as a resource set in the magneto-optical disk memory 2B of the port changer 2.
  • the working set of the divided resources has a one-to-one relationship with the assigned gardens GDN1, GDN2, ... GDNK, whereby each garden GDN1, GDN2 ... ... G DNK will have a working set of resources that can be used exclusively with other gardens.
  • the information storage processing device 1 of this embodiment has the capacity and / or capacity of a storage resource of a storage 7 comprising a semiconductor memory 4, a hard disk memory 3 and a magneto-optical disk memory 2B of an autochanger 2.
  • a storage 7 comprising a semiconductor memory 4, a hard disk memory 3 and a magneto-optical disk memory 2B of an autochanger 2.
  • a small-capacity high-speed storage such as a semiconductor memory 4 is arranged as the storage resource most frequently accessed by the client of the information storage processing device 1, and the storage frequently accessed secondly.
  • a medium-capacity medium-speed storage such as hard disk memory 3 is allocated as a resource, and a large-capacity low-speed storage such as magneto-optical disk memory 2B of auto changer 2 is used as the third most frequently accessed storage resource. Deploy storage.
  • the layering based on the access speed and / or the capacity of the storage resource is applied to the working set unit of the resource, which is the resource division area described above with reference to FIG. Therefore, the management of gardens GDN1, GDN2, which is the main body that manages the resource set, is managed by the garden manager GDM, which exists solely in each garden for the working set of its own resources. This is done as shown in FIG.
  • each garden GDN 1, GDN 2... In a single king set of resources managed by GDNK, includes a semiconductor memory 4, a hard disk memory 3, and a magneto-optical disk memory 2 B of a smart changer 2.
  • a file system SFS is introduced, and Frame for integration The set is constructed by the storage manager SGM that exists only in each garden GDN. Therefore, the server file system SFS has a file management structure unique to the information storage processing device 1.
  • the working set of storage resources split by the Server Manager SVM is also dynamically allocated (ie, so that it can change over time) to the Garden GDN generated by the Server Manager SVM, and thus Storage Manager A file system can be built on hierarchical and multi-type storage that is performed by SGM.
  • the working set of resources is dynamically allocated to the gardens G DN1, G
  • the DN2GDNK stratifies storage resources by devising how to call the garden manager GDM in each garden.
  • the garden manager GDM calls the storage manager SGM, and the called storage manager SGM constructs the server file system SFS on the hierarchical storage.
  • the server file system SFS has a tree structure including a root a and leaves b, c, and d.
  • the nodes e, f, and d of each file are divided into a working set of hierarchical resources by the storage manager SGM, that is, the division of the semiconductor memory 4, the hard disk memory 3, and the magneto-optical disk memory 2B. It is physically placed as online storage in the allocated memory area.
  • the client file system CFS is built on the storage that has the clients for each client, such as PC clients 10 and 11 and workstation clients 12.
  • the server file system SFS constructed on the storage 7 of the information storage processing device 1 is connected to the client file system CFS.
  • the server file system SFS can be imported as a part of the client file system CFS via the network interface 8 (Fig. 2). This is because the file tree structure of the client file system CFS has an expanded tree structure including the file tree structure of the server file system SFS by mounting the node g. It means that you have
  • the client file system CFS is extended to the server file system SFS, and the user (client in the client server model) can access the server file system SFS as a part of the client file system CFS. Therefore, the user of the information storage processor 1 can use the file in the server file system SFS through the client file system CFS without being aware of the physical storage location of the storage in which the file is hierarchized. Can be accessed.
  • the tree structure of the server file system SFS shown in Fig. 5 is constructed in storage 7 (hereinafter referred to as online storage) whose access is controlled while always connected to the CPU 5.
  • the photochanger 2 which constitutes a part of the storage 7 has an on-line which is constituted by a magneto-optical disk as a storage medium housed therein.
  • Storage unit ⁇ has an NS and an off-line storage unit OFS composed of a magneto-optical disk as a removable storage medium externally stored via the detachable device 2A, and has an on-line Storage unit Magneto-optical disk DM that constitutes NS.
  • Each of the nodes of the tree structure of the server file system SFS is constructed in ⁇ DM04, and the magneto-optical disk constituting the off-line storage unit OFS has the same tree-structured offline file as the server file system SFS.
  • the systems OFFS 1 and OFFS 2 are configured.
  • Nodes j and k of the offline file systems OFFS 1 and OFFS 2 are connected to nodes f and d of the server file system SFS, and thus the offline file systems OFFS 1 and FFS 2 are server files System sfs By functioning as a part, it will function as a part of the client file system CFS, and as a result, the client file system CFS will be extended accordingly.
  • the client file system CFS is built on the storage of the client computer, and a part of the node of the server file system SFS is online storage. This is built on the removable media of the magneto-optical disks D MD1 to D M04 in the part 0 NS (Fig. 6) .
  • the node a of the server file system SFS is placed on the magneto-optical disk D M01. to the node b, and c are optical magnetic disk D M02, node f is the magneto-optical disk D M03, is a situation where node d is arranged on the magneto-optical de Isku D M04.
  • an offline file system 0 FFS 1 connected via a node j to the node f of the server file system SFS is constructed.
  • the offline file system OFFS 2 is connected to the magneto-optical disk D M011 in the offline storage ⁇ FS area and connected to the server file system SFS node d via the node k. .
  • two virtual storage media VM 1 and VM 2 are installed in the online storage ONS, and the first virtual storage media VM 1 is installed in the online storage section ONS as a server file.
  • Means for connecting between the magneto-optical disk D MD3 on which the node f of the system SFS is located and the external magneto-optical disk D M011 on which the node j of the offline file system OFFS 1 is located provide.
  • the second virtual storage medium VM 2 is connected to the magneto-optical disk D MO4 on which the server file system SFS node d is located on the online storage unit 0 NS and the offline file system OFFS 1. It provides a means for connecting with an external magnetic memory DM012 in which the node k is arranged.
  • Virtual storage Meda VM as the contents of, built offline Nsu your storage unit 0 FS magneto-optical disk D M011 connected to Roh one de f present on the optical magnetic disk D M03 of online Nsu your storage unit ON S Stores the directory information of the offline file system OFFS 1 (which does not have a file entity).
  • the virtual storage media VM 2 is the online Nsu your storage unit 0 NS of the magneto-optical de Isku D M04 existing on Roh one de offline Nsu your storage unit 0 FS magneto-optical disk D M012 connected to d Stores directory information (it does not have a file entity) of the offline file system OFFS 2 that is being constructed.
  • the directory information of the file system built on the media of the OFS storage section OFS is managed as virtual storage media on the online storage section 0 NS.
  • the file system space can be expanded from online space to offline space.
  • the server file system SFS in the online space and the offline file systems FFS 1 and 0 FFS 2 in the offline space exist as if they were logically on the online storage unit as a whole. It can be handled like a file system. Therefore, a user using the information storage processing device 1 can treat an offline file existing on the offline storage unit 0 FS as if it were an offline file existing on the online storage unit 0 NS. it can.
  • the user manages the storage media on the online storage section ONS where the server file system SFS is located and the offline storage media on the offline storage section 0FS. This includes the operation of the client at Server Dell).
  • Client A, Client B, and Client C are Like the click Lai Ann bets 6, as storage Meda of online Nsu your storage unit 0 NS the client file system CFS shown in FIG. 5 are arranged, the magneto-optical disc D M021, D M0 22 and D M023, having a D MO i and D M02S and D M026.
  • the magneto-optical disk 0 ⁇ 011 and 0 1 ⁇ 01 2
  • the storage medium of the offline storage unit 0FS in which the offline file systems OFFS 1 and OFFS 2 in Fig. 5 are arranged is used.
  • Cry Ann preparative a and B has an external storage which do that the magneto-optical disk 0 ( ⁇ 31 and 0 1 ⁇ 32 and 0 "033.
  • the magneto-optical disk D M032 is connected to the online storage section 0 NS from the online storage section ONS to the offline storage section OFS for the client B.
  • virtual storage MED IA ⁇ VM 22 as a result of already removed, as well as present as information representative of the unloading operation of the storage Meda to offline Nsu your storage unit 0 FS direction, the client a and B.
  • virtual storage media VM 21 and VM 23 provided to insert the magneto-optical disks D M031 and D M033 in the direction from the storage storage unit 0 FS to the online storage unit 0 NS. .
  • clients A and C will be used to take out the magneto-optical disks D M022 and D M02S in the direction from the on-line storage unit 0 NS to the off-line storage unit 0 FFS.
  • virtual storage MED IA ⁇ VM 31 and VM 32 are present.
  • the connection information between the nodes j (FIG. 5) arranged in 22 is also written to the virtual storage medium formed in the online storage unit 0 NS.
  • Onrai down magneto-optical disk D M022 is removed from the online Nsu your storage unit ON S by click Lai Ann preparative A, offline Nsu preparative Les temporary section OFS of offline storage to represent as a virtual storage media ⁇ VM 31 It is managed by client A as media.
  • For clients B and nuclear translocation, and virtual storage media VM. 22 of online Nsu your storage unit ON S the same state as described above for the relationship between the offline Nsu your storage unit 0 FS of the magneto-optical disk D M032 I do.
  • the logical connection relationship between the server file system SFS located on the online storage media and the offline file system located on the offline storage media 0 FFS 1 and 0 FFS 2
  • the correlation between the online media f, the virtual storage media, and the offline storage media is also maintained and managed on the online media, so that the media from online to offline can be managed. It is possible to manage online storage media and offline storage media in the discharge direction.
  • Client B replaces offline storage media D M033 with offline storage media.
  • the virtual storage medium VM 23 is replaced with the entity of the storage medium DMO 33 , and the offline file systems OFFS 1 and 0 FFS 2 arranged in the storage medium D M0 33 are switched to the online storage.
  • Department Server file system located on ONS Becomes part of SFS.
  • the online storage medium and the intelligent storage medium can be managed in the direction from the offline to the online storage media.
  • the label printer 13 constitutes an automatic labeling mechanism together with the attaching / detaching device 2A of the autochanger 2, as shown in FIG.
  • the autochanger 2 is connected to the central processing unit (CPU) 21 via the internal bus 23, the I0 controller 24, and the bus 25 according to the software module arranged in the memory 22.
  • CPU central processing unit
  • the robotic 26 and the magneto-optical recording / reproducing drive 27 to control the robotic by specifying a plurality of magneto-optical disks contained in a rim bubble in the cartridge 28 26 and a magneto-optical recording / reproducing drive 27 constitute a magneto-optical disk memory 2B for writing or reading entity information, and by controlling the body 26, the client can insert and eject media 3 1
  • the magneto-optical disk 30 inserted into the cartridge 28 is housed in the cartridge 28 or taken out to the outside.
  • the software module of each manager described above with reference to FIG. 4 is arranged in the memory 22 and executed by the CPU 21.
  • the server file system SFS in FIG. 5 is stored in a magneto-optical disk as removable storage media in the cartridge 28.
  • the operation of the software module and the hardware when the client accesses the file system described above in Fig. 5 is based on the working set of the resources owned by the Garden GDN and built on it.
  • the server file system SFS and the offline file systems OFFS l and OFFS 2 arranged on an offline storage medium will be described as examples. If a client makes an access request to the node f of the server file system SFS (Fig. 5), the garden manager GDM manages the file system that it owns and manages.
  • the file is found, and the management information of the file is passed to the storage manager SGM (Fig. 4
  • the storage manager SGM uses the cartridge assigned to the magneto-optical disk where the file exists).
  • 28 Reads the slot number of 8 from the file management information and calls the corresponding media manager MDM, which is called by the IZO controller based on the information stored in the file storage medium. 24, Controls mouth mouth 26 via bus 25, corresponding to stored in cartridge 28 By moving the that storage medium into the drive 2 7 accesses the node f requested by the client.
  • the magneto-optical disk memory 2B terminates the access operation in response to the access request from the client.
  • the garden manager GDM obtains the client information from the management information of the file system held and managed by itself. It finds the file requested by the host and passes the management information for that file to the storage manager SGM. The storage manager SGM recognizes from the file management information that the file is located on the offline media. This is executed by the storage manager SGM examining the information about the virtual media stored in the memory 22 as described above with reference to FIG.
  • the storage manager SGM determines the media information (VM 21 ) on the virtual storage medium (VM 21 ). Electronic label) to the Garden Manager GDM.
  • Garden Manager GDM communicates the storage media information of the electronic label to the client.
  • the client can use the offline media based on the stored media information. From the storage 0 FS, the corresponding magneto-optical disk D M031 as an offline storage medium is searched for from the external storage unit, and the online storage unit 0 NS is replaced with the virtual storage medium VM 21 of the media to be inserted into the medium.
  • the garden manager GDM updates the management information by using the magneto-optical disk DM031 , which has been managed as a virtual storage medium, as a medium of the actual online storage ONS.
  • Be sampled, single di manager S GM in order to move the inserted magneto-optical de Lee disk DM03, to scan 1 ⁇ Tsu bets are empty carts
  • Li Tsu di 2 8 calls the media manager M DM .
  • the media manager MDM moves the magneto-optical disk D M031 that has just been inserted into the specified slot of the cartridge 28 . Thereafter, the node k is accessed in the same procedure as the access of the node f described above.
  • the label printer has a dot impact printer installed inside the autochanger 2 and this is connected to the internal bus 23 using internal wiring, so that the CPU 21 of the autochanger 2 can be used.
  • the label printer I3 can be controlled.
  • the label is attached to the surface of the media as visual information, so that the management of the offline storage media by the client becomes easy, and the offline by the clan agent.
  • the transfer operation of the online storage media to the online storage media can be easily and reliably executed.
  • a single set of resources managed by the garden GDN 1 is assigned to client A, which constitutes a storage resource of the online storage unit 0 NS.
  • Semiconductor memory 4, hard disk memory 3, and magneto-optical For the storage 2B and the magneto-optical disk in the external storage that constitutes the offline storage unit 0FS, the storage capacity of the garden GDN1 is the band-shaped part representing the garden GDN1 and the semiconductor memory. 4. It can be expressed as a value corresponding to the area of intersection with the hard disk memory 3, the magneto-optical disk memory 2B, and the band that represents the storage area of the external storage.
  • the storage capacity of the garden 4, GDN1, GDN2, and GDN3 memory 4, the hard disk memory 3, the magneto-optical disk memory 2B, and the storage capacity of the external storage are displayed (QA1, QA2, and QA3, respectively).
  • QA4, (QB1, QB2 and QB3, and QB4) and (QC1, QC2 and QC3, and QC4) are displayed (QA1, QA2, and QA3, respectively).
  • the area ratios of the capacity indications QA1, QB1, and QC1 of the gardens GDN1, GDN2, and GDN3 are different because the gardens GDN1, GDN2, GDN3 It means that the capacity of the semiconductor memory 4 allocated as the working set of the resources of the same is not uniform. This is also similar to the method described in Section I regarding the division of storage resources between the hard disk memory 3 and the magneto-optical disk memory 2B.
  • each of the gardens GDN1, GDN2, and GDN3 is a storage of the semiconductor memory 4, hard disk memory 3, and magneto-optical disk memory 2B in the working set of its own resources. Tiers based on access time and storage capacity, and tiered storage resources (QA1, QA2, QA3), (QB1, QB2, QB3), (QC1, QC2, QC3), respectively.
  • the server file system SFS described in Fig. 5 is constructed.
  • the offline file systems OFFSl and OFFS2 described in Fig. 5 are constructed.
  • the storage layering and file system construction are performed by a software module consisting of the garden manager GDM, storage manager SGM, and media manager MDM of each garden GDN1, GDN2s GDN3. Further The software modules of the garden manager GDM, storage manager SGM, and media manager MDM of each of the gardens GDN1, GDN2, and GDN3 are chronologically hierarchical storage resources (QA1, QA2). , QA3), (QB1, QB2, QB3), (QC1, QC2, QC3) change the capacity of the online storage. This is done according to the access frequency and file size of the files in the server file system SFS by each client.
  • the storage resources QA 1, QB QC 1 of the semiconductor memory 4 which is a single set of resources of the gardens G DN 1, G DN 2, and G DN 3, and the storage of the hard disk memory 3
  • Resources QA2, QB2, QC2 capacity and magneto-optical disk memory 2B storage resources QA3, QB3, QC3 capacity of each garden GDN1, GDN2s GDN3 client By dynamically changing (over time) according to the access characteristics of files, resources can be allocated fairly and efficiently to each client.
  • the information storage processor 1 automatically adjusts the online storage capacity to allocate resources to each client fairly and efficiently, and also as described above with reference to FIG.
  • the online storage capacity itself can be dynamically increased.
  • a server file system SFS is arranged on the online storage medium in the online storage section NS of FIG. 7, that is, on the magneto-optical disks DM021- DM026 .
  • Off-line storage media in the offline storage section OFS in FIG. 7, that is, the magneto-optical disks D M031 to D M033 are provided with off-line file systems OFFS 1 and 0 FFS 2. Therefore, in Fig. 9, the server file system SFS is placed on the working set QA3, QB3, and QC3 of the magneto-optical disk storage resources of the magneto-optical disk memory 2B as an online storage medium. And the offline file system ⁇ FFS 1 and 0 FFS 2 is the working set QA 4 and QB 4 s of magneto-optical disk storage resources as offline storage media. Located on QC 4.
  • the client took out the online media off-line, but the garden managers GDM1, GDN2, and GDM3 of each garden GDN1, GDN2, and GDN3
  • the infrequently-accessed files built on the capacity QA3, QB3, and QC3 of the magneto-optical disk memory 2B of the autochanger 2 by the software modules of the storage manager SGM and the media manager MDM Is automatically selected, and this is set as a candidate for the offline file system OFFS 1 and OFFS 2.
  • the file system space is extended to offline, and the online and offline storage media can be managed, so that the online storage for the client can be realized.
  • Offline files that do not fit in the storage can be manipulated online.
  • online storage capacity can be dynamically increased by expanding client-driven online and offline management.
  • the online storage capacity is automatically adjusted for each garden GDN based on online and offline media management, maintaining the integrity of the file system space extended to offline. By doing so, it is possible to provide each client having the garden GDN with a file capable of expanding the storage capacity without practical limitation.
  • step SP1 the CPU 5 of the information storage processing device 1 starts initialization by the main routine RT0 in FIG. 13, and in step SP1, a garden generation request is sent from the network 9 to the information storage processing device 1 from any client. Waits for the arrival, and when a positive result is obtained, a garden manager is generated in step SP2. At this time, the garden manager executes the management processing procedure shown in Fig. 14. That is, the garden manager creates a path map table as shown in Fig. 15 in step SP11 of Fig. 14 and then proceeds to step SP12. In step S13, the storage manager shown in FIG. 4 is generated, and the process ends in step SP13.
  • the path map table TBL 1 is provided for each file system, and includes the server file system SFS, the online file systems OFFS 1 and OFFS 2 shown in FIG. 5 or FIG. 10, and the storage file system SAFS and It has information about each node constituting the SBFS and is stored in the hard disk memory 3.
  • the path map table TBL1 stores a file system type as a header for an entry.
  • this file system type there are other file systems such as the garden file system according to the present invention and the UNIX user file system.
  • Each entry of the path map table TBL 1 is composed of a plurality of entry tables that represent "normal file”, "directory”, or “mount point” as a file type.
  • “File” is stored as the file type
  • the directory or mount point entryable TBL 3 as shown in FIG. In addition to "directory” or “mount point", it stores "path name” and "pointer to other path map tables" as other information.
  • the CPU 5 when the garden manager GDM of the gardens GDN1 to GDNK in FIG. 4 is formed, the CPU 5 generates a storage manager in step SP12.
  • the storage manager enters a management processing routine RT2 as shown in Fig. 16 and waits for an access request to arrive at step SP2I. 22. It is determined whether the access request is a mount request or not.
  • the CPU 5 moves to a mount processing subroutine RT3 and executes a mount processing procedure as shown in FIG.
  • the CPU 5 first proceeds to step SP31, where the file system of the path map table of the mount destination (for example, the nodes j and k of the offline file systems OFF1 and OFF2 in FIG. 5). After specifying the type and setting the file system, in the next step SP32, set the mount point (TBL3) for the file type of the path map table (Fig. 15), and then from step SP33. Return to the storage manager processing routine (Fig. 16).
  • step SP22 if a negative result is obtained in step SP22, this means that the access request is not a mount process, that is, a read process or a write process. Moves to the read / write access processing subroutine RT4.
  • the CPU 5 Upon entering the read / write access processing subroutine RT4, the CPU 5 firstly enters the file designated by the client by the path map table (FIG. 15) in step SP41 (ie, the file) as shown in FIG. System type After researching the file type (Fig. 15 (A)), the file or the mount point (Fig. 15 (B) or (C)), the cache check subroutine RT5 is executed.
  • the cache check subroutine RT5 executes a process of checking whether or not the file data to be stored in the magneto-optical disk memory 2B has been read to the hard disk memory 3.
  • the CPU 5 determines whether or not the current access request is a read access in step SP51, as shown in FIG. 19, and if it is a read access, as shown in FIG. Determines in step SP52 whether or not the queue is present in the cache data management list.
  • the cache data management list is stored in the hard disk memory 3, and as shown in FIG. 20, the number of cache blocks CB1, CB corresponding to all the slots of the magneto-optical disk memory 2B 2, each has a mouthpiece C
  • This cache data management list is managed by the LRU (least-recently-used) method, and the most recently accessed block is placed at the head of the queue, that is, as the leftmost block CB1 in FIG. It is listed so that it can flow.
  • LRU least-recently-used
  • step SP52 If an affirmative result is obtained in step SP52, the CPU 5 proceeds to step SP53 to execute a queuing process at the head of the read cache management list for the found queue and to execute the queuing process. After reading the file data of the block that has been subjected to the writing process, the process returns to the read / write access processing routine RT4 (FIG. 18) from step SP59.
  • step SP52 when a negative result is obtained in step SP52, the CPU 5 proceeds to step SP55 and performs a cache miss processing, so that the fact that it was a cache miss is stored in the internal memory 6. After recording, the process moves to step SP54 and ends the process. Further, if a negative result is obtained in step SP51 described above, this means that the current access request is in the write mode, and the CPU 5 proceeds to step SP56 and proceeds to step SP56. Once the file data to be stored is written to the hard disk memory 3 and the fact that the access request is a write access request is stored in the internal memory 6, the process proceeds to step SP54 described above, and the process is performed. finish.
  • the CPU 5 After the cache check processing is completed, the CPU 5 returns to the read / write access processing subroutine RT4 (FIG. 18) and determines whether or not the cache has been performed in step SP42.
  • step SP 43 the storage management processing routine (FIG. 16).
  • step SP 42 the CPU 5 proceeds to step SP 44 and checks the above-mentioned step SP 21 from the file system type in the path map table (FIG. 15). It is determined whether the access request arrived in ( Figure 16) is file data managed by the garden file system (GFS). If a positive result is obtained, the processing of the garden file system processing routine RT6 is performed. to go into.
  • GFS garden file system
  • the CPU 5 determines whether or not the disk has been accessed for the first time in step SP61, as shown in FIG. 21, and when a positive result is obtained, the CPU 5 proceeds to step SP6.
  • the media manager shown in Fig. 4 is generated, and the process returns to the read / write access processing routine RT4 (Fig. 18) from step SP63.
  • the CPU 5 executes the reading process of the media access management table (FIG. 26) in step SP71, and then, in step SP72, the relevant media manager is offline. It is determined whether or not there is, and when a positive result is obtained, the processing of the offline processing subroutine RT8 is performed, and then the process returns to step SP71.
  • the CPU 5 determines in step SP72 that the media access management It is determined whether or not there is a media number stored in the TBL 31 that matches the media number of the magneto-optical disk in which the file to be accessed is stored.
  • the media number of the magneto-optical disk storing the file to be accessed can be known from the storage media number in the file storage information of the path map table TBL1.
  • step SP81 a process of outputting the media label of the in-media management table TB11 (FIG. 24) to the client is executed.
  • the in-media management table TBL 11 is provided for each storage medium (that is, the magneto-optical disk 2B). As shown in FIG. 24 (A), this table TBL 11 includes a “media label” It contains management information about the “file number” and “node pointer” of the file stored in the storage media.
  • a node table TBL 12 as shown in FIG. 24 (B) is stored at the position indicated by the node pointer of each file number in the in-media management table TBL 11 of each storage medium.
  • “owner”, “permission”, “access time”, “change time”, “single block pointer” (as shown in Fig. 24 (C), contains data that is a file entity) ), "Double block pointer"
  • step SP81 the CPU 5 inserts the user into the detacher 2A of the photo changer 2 of the designated media in the next step SP82.
  • the flow returns to step SP71 of the media manager processing routine RT7 (FIG. 22) via step SP83.
  • the user can determine the target storage medium based on the label attached to the medium. If a negative result is obtained in step SP72 of the media manager processing routine RT7 (FIG. 22), this means that the file requested for access is not offline, that is, the media is not online (the media is inserted in the slot).
  • step SP73 the CPU 5 moves to step SP73 and proceeds to step SP73, where the i-th node indicated by the i-th node in the media management table (Fig. 24) has the file number. After reading the node into the table TBL12, it is determined in step SP74 whether a read command is necessary.
  • step SP74 the CPU 5 executes the processing of the read cache processing routine RT9.
  • the CPU 5 Upon entering the read cache processing routine RT9, the CPU 5 executes a process of removing the block connected to the end of the queue of the cache data management list in step SP91 as shown in FIG. After executing the processing for a plurality of data as required, in step SP92, the processing of reading file data from the block indicated by the block pointer of the i-th node table (read ahead) is executed. At step SP93, the queue containing the file data just read into the cache data management list is connected to the head of the queue, and at the next step SP94, the media access management table TBL31 (Fig. 26) is accessed. After executing the update processing of the count data and the staging information, the media manager subroutine RT is executed via step SP95. Return to 7 (Fig. 22).
  • the media access management table TBL 31 stores “access count” (access history, that is, the number of accesses) for each slot number of the entire storage. It stores “staging information” (for example, information indicating an access time) and “media n Z information” and the CPU 5 of the information stores the staging information and the access point information.
  • access count access history, that is, the number of accesses
  • scheduling information for example, information indicating an access time
  • media n Z information for example, information indicating an access time
  • the update process in step SP94 is executed using.
  • the CPU 5 Upon entering the write cache subroutine RT10, as shown in FIG. 27, the CPU 5 removes the block connected to the end of the cache data management list (FIG. 20) at step SP101 as shown in FIG. The processing is executed (for a plurality of pieces if necessary), and in the next write preparation routine RT 11, the block pointer of the i-th node table TBL 12 (FIG. 24 (B)) of the file concerned Prepare to write the file data to the block indicated by.
  • the CPU 5 determines whether or not the medium specified in step SP111 has a free space as shown in FIG.
  • This determination is to confirm whether or not the file data to be written can be written to the magneto-optical disk due to the remaining space on the specified medium, that is, the magneto-optical disk.
  • a check is performed using the data stored for each slot number as the remaining capacity data of the media access management table TBL31 (FIG. 26).
  • step SP111 If a positive result is obtained in step SP111, this means that the file data to be written by the current access request is in a state where it can be written to the magneto-optical disk without any loss, and at this time, the CPU 5 Moving to step SP112, the corresponding node table TBL12 of the media management table (Fig. 24) is updated, and the entry table of the path map table TBL1 (Fig. 15) is updated. After updating TBL2 or TBL3, the process returns to the write cache processing routine RT10 (FIG. 27) in step SP113.
  • step SP111 if a negative result is obtained in step SP111 above, this means that the designated storage medium, that is, the magneto-optical disc, has room for storing the information data requested to be accessed.
  • CPU 5 goes to step SP114 and empties the magneto-optical disk memory 2B in the autochanger. Determine if any media is present.
  • the CPU 5 determines from the management information of the media access management table TBL31 (Fig. 26) that the slot (garden number) for which the remaining capacity data is large and the garden is not allocated. To search for a slot number that does not exist.
  • step SP114 If an affirmative result is obtained in step SP114, this means that a free medium has been found in the autochanger 2, and the CPU 5 proceeds to step SP115 and proceeds to step SP115.
  • step SP 116 After executing processing for creating a management table in the media management table TB L 11 (FIG. 24), information about the storage medium is executed, and in step SP 116, the media management table TBL 11 (FIG. 24) ), And the entry table TBL2 or TBL3 of the path map table TBL1 is updated, thus accessing the media available in the autochanger 2.
  • the preparation for writing the requested information data is completed.
  • the CPU 5 returns to the above-described write cache processing routine; T10 (FIG. 27) through step SP113.
  • step SP114 If a negative result is obtained in step SP114, this means that there is no empty storage medium in the autochanger 2, and at this time, the CPU 5 proceeds to step SP117. Then, it is determined whether or not the media access management table TBL 31 has a free space.
  • the determination in step SP117 is a process of searching for a slot number for which no data is stored in the media number column in the media access management table TBL31 (FIG. 26). If a positive result is obtained in the step of executing the step, the storage medium, that is, the slot in which the magneto-optical disk is not inserted, is in the slot of the slot number in which the media number is not stored. At this time, the CPU 5 moves to step SP118 and sends a blank medium to the client, that is, a magneto-optical disk on which no information is written, with the slot number of the corresponding slot number. Information that should be inserted into the network After outputting to the client via the interface 8, in step SP119, the system waits for a new magneto-optical disk to be inserted.
  • step SP119 After updating the node table TBL12 of 1 and the entry table TBL2 or TBL3 of the path map table TBL1, update the write cache processing routine RT10 from step SP113. Return to (Fig. 27).
  • step SP117 if a negative result is obtained in step SP117 described above, this means that there is no free storage medium in the autochanger, and at this time, the CPU 5
  • a media ejection process such as pulling out a part of the magneto-optical disk in the autochanger 2 is performed, thereby creating an empty slot in the automatic changer 2.
  • the processing returns to the write cache processing routine RT10 (Fig. 27) through the above steps SP118, SP119, SP116, and SP113. Execute.
  • the CPU 5 enters the media discharge processing subroutine RT12 in step SP121, as shown in FIG. 29, from the media access count and staging information in the media access management table TBL (FIG. 26).
  • the storage medium with the least access in other words, the storage medium with low frequency
  • the CPU 5 executes the above-described step SP 1 2 1 Then, after selecting the next least accessed storage medium, the processing of step SP122 is executed for the storage medium.
  • step SP122 If a negative result is obtained in step SP122, this means that the selected This means that the storage media can be discharged, and at this time, the CPU 5 proceeds to step SP123 and looks at the cache data management list (FIG. 20), and the CPU 5 executes the processing in the storage media. After the file data has been flushed, the discharge / print processing is performed from the next step SP124.
  • the CPU 5 transfers the file data of the half-cache block stored on the hard disk to the magneto-optical disk memory. Executes flash processing such as writing to the storage media corresponding to.
  • step SP124 the CPU 5 determines whether or not the media label has already been written to the storage medium of the corresponding slot number in the in-media management table TBL11 (FIG. 24).
  • a media label is created in step SP125, and the media label is labeled in step SP126 through the printer I / F on the label printer 13 (Fig. 2).
  • Print on This allows the client to attach this label to the cartridge of the magneto-optical disc so that it can be distinguished from other magneto-optical discs even when it goes offline.
  • step SP127 a media label is set in the media label field of the in-media management table TBL11 (Fig. 24), and then the media discharge processing subroutine RTI is performed via step SP128. 2 (Fig. 29) is completed.
  • step SP 1 24 if an affirmative result is obtained in step SP 1 24 described above, this means that the media label has already been written to the in-media management table TBL 11 (FIG. This means that a label is already attached to the cartridge of the magneto-optical disk.
  • the CPU 5 jumps from step SP125 to SP127 and returns to the write preparation processing routine RT11 (FIG. 28) described above from step SP128.
  • step SP102 a process of allocating a cache block from the cache data management list for data for which write data is requested, connecting the cache block to the head of the queue, and executing the next step SP102.
  • step 03 the staging information of the media access management table TBL 31 (FIG. 26) is updated to terminate the write cache processing subroutine RT10.
  • step SP10 the above-described media manager generation processing subroutine RT7 is started.
  • the garden file system (GFS) processing routine RT 6 (FIG. 21) is terminated via step SP 75, and the Back to de la I bet access processing routine RT 4.
  • step SP61 of the garden file system (GFS) processing routine RT6 (FIG. 21) to determine that the disk access is not the first time
  • the CPU 5 executes the media management.
  • step SP63 the procedure returns to the above-mentioned read Z write access processing routine RT4 (FIG. 18).
  • step SP43 the storage manager processing routine RT2 (FIG. 1) is executed. Return to 6).
  • step SP 14 1 when entering the other file system processing subroutine RT 14, the CPU 5 determines in step SP 14 1 that the path of the file system in the garden file system (GFS) path map table TBL 1 is entered as shown in FIG. Change to first name
  • step SP 14 3 the process proceeds to step SP 14 3 to determine whether the file requested to be accessed from the media access management table TBL 3 1 relates to an offline file. Make a judgment.
  • GFS garden file system
  • step SP144 if a negative result is obtained in step SP144, this means that online processing needs to be performed, and at this time, the CPU 5 executes the above read / write from step SP144. Return to the access processing subroutine RT 4 (FIG. 18).
  • the CPU 5 has completed the processing of the read / write access processing subroutine RT4, and at this time, the CPU 5 executes the above-described storage management via step SP43.
  • the CPU 5 waits for a new access request to be generated at step SP21.
  • the CPU 5 performs the operations described above with reference to FIGS. It can be executed by the processing procedure described above with reference to FIGS.
  • FIG. 10 shows another embodiment of the present invention.
  • the information storage processing device 1 is connected to a node b of the server file system SFS and is configured by a write-once optical disk memory.
  • the storage A file system SAFS node h built on the storage By mounting the storage A file system SAFS node h built on the storage, the storage A file The file in the SAFS is handled as a part of the server file system SFS. It has been done.
  • optical disk memory is used for the node c of the server file system SFS.
  • the files in the storage B file SBFS can be used as part of the server file system SFS. It is made to handle.
  • the information storage processing device 1 in addition to the magneto-optical disk storage, other types of storage, that is, the write-once disk memory and the optical Users can mount any file system built on different types of storage by mounting file systems configured on storage consisting of memory. It can be accessed through the client file system CFS without being aware of the problem. That is, the nodes b, c, d, and f of the tree structure in the server file system SFS are mounted on a file system mount having another file management structure including the server file system SFS and the client file system CFS.
  • the storage manager SGM called from the garden manager GDM performs the monitoring.
  • the storage manager SGM has a module that understands the file system structure to be combined, so that various file systems built on various types of storage can be stored in the server file system SFS. It can handle file systems combined as an extension of the server file system SFS.
  • the storage A file system SAFS is built on storage such as a write-once optical disk, and the storage A file system SAFS is installed on the node b in the server file system SFS.
  • the node h By mounting the node h inside, the files in the storage A file system SAFS can be handled as part of the server file system SFS.
  • the storage B file system SBFS node i By mounting the storage B file system SBFS node i on the node in the server file system SFS, the storage constructed on storage such as an optical disk.
  • the storage B file system SBFS can be treated as an extension of the server file system SFS.
  • the information storage processing device 1 can be constructed on various types of storage.
  • file systems can be integrated, and the client does not need to be aware of storage, and through the client file system CFS, as an extension of the client file system CFS, the server file system SFS, Access files in multiple file systems, such as storage A file system SAFS and storage B file system SBFS
  • FIG. 11 shows another embodiment of the present invention.
  • the information storage processing device in the case of FIG. 11 includes a client storage unit CLS to an offline storage unit 0. Up to FS are layered by storage access speed.
  • the diagram is equivalent to Fig. 9, but the feature here is that each storage is treated as a cache. Closest to the client (storage with the fastest access speed to the client)
  • Client storage CLS is the primary cache, and semiconductors in the order of higher access speed
  • the memory 4 is called a secondary cache
  • the disk memory 3 is called a tertiary cache
  • the magneto-optical disk memory 2B of the autochanger 2 is called a quaternary cache.
  • This is an extension of the concept equivalent to a primary cache and a secondary cache for the main memory (semiconductor memory) of a microprocessor to storage including offline.
  • the client that has built a file system such as the server file system SFS and the offline file system OFFS l OFFS 2 on the layered storage
  • the file is accessed, but in the case of Fig. 11, the storage manager S GM, which is the only one in each garden G DN, automatically downloads the file according to the frequency of file access.
  • a high-speed cache such as CLS or semiconductor memory 4 (eventually staging to the primary cache) or to a low-speed cache such as autochanger 2. More frequently (eventually offline storage OFS), which allows for frequently accessed files It is possible to improve the accession Sesupa-performance, hierarchical
  • the used storage can be used effectively.
  • the files in the server file system SFS accessed by the client are placed in the magneto-optical disk memory 2B of the autochanger 2 in FIG.
  • the file moves due to staging between the caches over time, but the storage manager SGM uses the client to access the file, the currently staged storage and the cache. Collection of statistical information such as the service life of the equipment.
  • the user of the information storage processing device 1 can analyze and analyze the operating status of the information storage processing device 1 and the usage status of the resources of the information storage processing device 1 used in the application. Further, based on the analysis of the statistical information by the user and the analysis result, it is possible to tune the distribution and processing speed of the resources of the application and information storage processing device 1.
  • this statistical information is managed by the garden manager GDM, which is unique to each garden GDN, in the information storage and processing device 1, and is created by the client by applying online and offline media management.
  • Useless files on the online storage that have been accessed very infrequently are automatically organized as offline files, and the above procedure is used to bring the online media on which the files are placed offline. Can be discharged.
  • the process of organizing the files as offline files can be realized by managing the slot in the magneto-optical disk as the rim-able storage in the automatic changer 2 as shown in FIG. Fig. 12 shows the capacity of the magneto-optical disk memory 2B (cartridge 28 (Fig. 8) in the storage resources QA3, QB3, and QC3 of each garden GDN1, GDN2, and GDN3 in Fig. 9. ) With a capacity proportional to the number of slots in the parentheses).
  • Clients A, B and C with gardens GDN1, GDN2 and GDN3 are currently slotted (SL1, SL2), (SL3-SL6) and (SL7-SL9). ), And a magneto-optical disc is inserted in all slots as a removable storage medium.
  • the maximum number of slots of the auto changer 2 having the magneto-optical disk memory 2B is 8 slots of the slots SL1 to SL8, and there is no empty slot at present.
  • the server manager S VM responds to the access request of the client C ⁇ offline storage medium, that is, the magneto-optical disk DMC 2 by the server manager S VM.
  • the GDM GDM which has online media on which the infrequently accessed super file system SFS is located, and automatically migrates the relevant online media to offline media.
  • 'garden GDN 1 of Cry N'an bets A moves to the outside as offline storage Meda D M0 magneto-optical disk as online storage Meda to have the slot SL 2.
  • the offline storage medium DM042 can be transferred online to the garden GDN3 of the client C, and can function as the online storage medium of the slot SL9.
  • client A's garden GDN 1 has only one slot SL 1 and client C's garden GDN 3 has three slots SL 7, SL 8, and SL 9. Changes dynamically.
  • the number of slots of the magneto-optical disk autochanger 2 that the gardens GDN 1 and GDN 3 of the clients A and C have can be adjusted according to the file access frequency and the file size of the client. Dynamic changes allow frequently accessed client files to remain online.
  • the slot of the autochanger 2 of the magneto-optical disk of the gardens GDN1 and GDN3 of the clients A and C is dynamically changed, but the garden GDN2 of the client B is changed. This does not apply to the slot owned by the client, but is assigned by the user as a slot that can be used exclusively by the garden GDN2 of client B.
  • a magneto-optical disk as a removable storage medium is inserted in slot SL 3 and SL 4 of garden GDN 2 of client B, but slot SL 5 and slot SL 5 SL 6 is in an empty slot state where no removable storage media is inserted.
  • the garden GDN 2 of the client B is not allocated to the garden GDN 1 and GDN 3 of the other clients A and C, and the garden GDN 2 of the client B is not allocated to the slot SL 5. Occupies the SL-6.
  • the client B can exclusively use the slots SL5 and SL6 as necessary, regardless of the frequency of file access.
  • a magneto-optical disk memory 2B having a semiconductor memory 4, a disk memory 3, and an attaching / detaching device 2A is used as storage with the access speed and the storage capacity as hierarchical conditions.
  • Hierarchical information storage processing device 1 has been described, but the storage and hierarchical conditions are not limited to this, and write-once optical disks that can be written once and can be read several times, read-only Storage such as an optical disk and a tape streamer for sequential access may be applied, and hierarchies may be formed based on the characteristics and characteristics of the applied storage.
  • a device configuration having a storage hierarchy including an offline storage that cannot be accessed online, and a storage and file management including an offline realized by software.
  • constructing a system and providing it as storage, including offline storage media it is possible to eliminate unfairness to users and to improve user-friendliness and store data without practical limitations.
  • An information storage processing device whose capacity can be increased can be realized.
  • the system when the client accesses a file that does not exist online, the system can notify the client of the introduction of the offline media in which the file exists.
  • the media information consisting of an electronic label is automatically written on the media, and at the same time, by attaching a visually identifiable label, the user can more easily and surely use the offline media. Can manage and go online.
  • the on-line storage capacity can be increased by a factor of 3 to 10 by automatically ejecting a file having a low access frequency to the offline.
  • useless files of the client can be automatically arranged.
  • the directories in the offline media that are automatically dumped to the offline media are managed as virtual media online, and can be transferred online on demand.
  • by managing file media including offline media and efficient use of online storage capacity it is possible to realize practically infinite capacity files.
  • the file system unique to each storage is mounted in the internal unique file system. it can. This allows clients to access various file systems unique to each storage as file systems unique to each storage.
  • the user can operate the server based on the statistical information. Analyze and analyze the status and usage status of server resources handled in the aggregation. In addition, application and server performance can be tuned based on analysis and analysis results.
  • each file is accessed according to the access frequency and size of the file.
  • the system automatically reserves and opens the number of magneto-optical disk autochanger slots allocated to clients, automatically adjusting the online capacity of each client, Frequently accessed client files can be kept online.
  • the client can lock the slot for exclusive use, so that the client can use it exclusively for a specific application regardless of the frequency of file access. It can also be shared with other clients that share the same application such as a database.
  • the information storage processing device can be used by various clients requiring a large-capacity storage device, and can be used for storing electronic publishing data, securities data, catalog publishing data, and the like.
  • the information storage processing device can be used for image processing of documents, for example, for storing a copy of a document of a government office or relying on drawings related to patents.
  • the information storage processing device can be used for a task of creating game software.

Description

明 細 書 発明の名称
情報記憶処理装置
技術分野
本発明は情報記憶処理装置に関し、 特にクライアン トノサーバモデルに基づく ネッ トワークス ト レージサーバに適用して好適なものである。
背景技術
従来、 ネッ トワーク経由で複数のユーザから共有使用されるクライアン 卜/ザ ーバモデルに基づく情報記憶処理装置 (ネッ トワークス ト レージサーバ) として 、 磁気ディスク及び光磁気ディスクを内蔵したジュークボックスをワークステ一 ションに接続し、 ワークステーション上のオペレーティ ングシステムの一部に、 デバイス ドライバ、 独自のフアイルシステム及びフアイルデバイスの管理ソフ ト ウェアを載せたネッ ト ワークフアイノレシステム (Network F i l e System ) サーバ がある。
このネッ トワークフアイノレシステムサーバは、 ネッ トワークに接続されている コ ンピュータのス ト レ一ジ フ ァイ ルサ一バを、 ネッ トワーク経由で、 あたかも 自分のコ ンピュータのス ト レージのように使えるようにするソ フ トウエアを用い る。 具体的には、 自分のコ ンビュータ上のディ レク ト リ に、 他のコ ンピュータの ス ト レ一ジをネッ トワーク経由でマウン トする。 このネッ トワークフアイノレ シス テムサーバにより、 ユーザは大容量のネッ トワークス ト レージを自分のコ ンピュ ータにネッ トワーク経由で接続し、 利用することができる。
このネッ トワークフアイルシステムサーバの特徴としては、 第 1 に磁気ディス クフアイルサーバの高速性を活かしながら、 ジュ一クボックスの接続によりビッ ト単価を下げる。 また第 2にジュークボックス内の全ての着脱可能な記憶メディ ァ (以下、 これをリ ムーバブルメディアと呼ぶ) を 1 ボリュームとして管理して いる。 これは、 磁気ディスクの拡張スペースとしてリ ム一バブルメディァのボリ ユー厶をシステムが一括管理することを意味し、 ユーザが個々のリムーバブルメ ディァを自由に使う ことはできない。
さらに第 3にジユークボックスを、 磁気ディスクの一部として扱うファイルシ ステムを採用しており、 サーバは 1 つのファイルシステムのみ扱う。 また第 4に 磁気ディスクとジュークボックスのス ト レージ階層間において、 自動フアイルマ ィグレーシヨンを行なう ことにより、 アクセスス ピ一 ドを磁気ディスクに近付け る。 さらにまた複数台のジュークボックスを物理的に接続することで、 無限大容 量ファイルと定義している。 最後にオンライ ンス ト レージのみを管理対象とし、 システム稼働中のメディァの交換及びォフライ ンメディァ管理は行なわない。 このように N F Sサーバにおいては、 半導体メモリ、 磁気ディスク、 光ディス ク、 光磁気ディスク等をアクセス速度で階層化したス ト レージ構成を持ち、 ス ト レージの階層管理 (H S M ( Hi erarch i ca l Storage Management) ) によりサーバ の持つ資源を管理している。
ところがこの N F Sサーバにおいては、 アクセス速度による階層化を行なって いるため、 アクセスのターンアラウ ン ドタイ ムは磁気ディスク といった高速ス ト レ一ジのアクセスタイムに近付けるよう工夫がなされているが、 各クライアン ト に対する才ンライ ンス ト レージ容量の管理を行なっていないため、 クライアン ト が有するス ト レ一ジのオンライ ン容量においてクライ アン ト間で不公平が生じる 問題がある。 なおここでクライアン トとは、 クライアン ト Zサーバモデルにおけ るク ライ アン トを指す。
またォンライ ンス ト レ一ジのみの階層管理を行なっているため、 光磁気ディス ク等を着脱できるようにしたリム一バブル記憶メディァを持つス ト レ一ジを用い る場合、 システム稼働中には記憶メディアの交換ができない問題がある。 これは ユーザのフアイルが入った記億メディァを、 システム立ち上げ後は一切アクセス できないことを意味する。
さらに現在のデータの性質及びス ト レージの特性に合わせて多種多様なフアイ ルシステムが存在するが、 階層化されたス ト レ一ジを 1 つの大きなボリュームと して扱っているため、 システム中には 1 つのファイルシステムしか存在できない 問題がある。 これは、 システムでサポー トされていないファイルシステムで構築 されたュ一ザのフアイルゃデータを、 アクセスできないことを意眛する。
. さらにまた、 オンライ ンス ト レ一ジ上に各クライアン トのフアイルゃデータが 増加する傾向にあるが、 一方でアクセス頻度の低いフアイルゃアクセスされなく なったファイ ルもオンライ ンス ト レージ上に保持されるため、 オンライ ンス ト レ ージの使用効率が低くなる。 またリ厶ーバブル記憶メディァをシステムで一括管 理しているため、 クライアン トの持つリ ムーバブル記憶メディアを、 システムに おいて明示的にクライ アン トが扱う ことができない等の問題があった。
本発明は以上の点を考慮してなされたもので、 ユーザの不公平さを解消すると 共にユーザの使い勝手を向上し得る情報記憶処理装置を提案しようとするもので ある。 発明の開示
かかる課題を解決するため本発明においては、 ユーザに対して、 情報記憶処理 の資源 ( 2、 3、 4、 5、 6、 7、 8、 9 ) の分割及び動的割り当てを行なう と 共に、 その情報記憶処理の資源 ( 2〜9 ) 中の記憶資源でなる多種複数ス ト レー ジ ( 2、 6、 7、 1 4 ) をファイ ルシステムによって統合し及び速度、 特徴によ つて階層化し、 その階層化された多種複数ス ト レージ ( 2、 6、 7、 1 4 ) 上へ のファイルシステムの構築を行ない、 ユーザが、 多種複数ス ト レージ ( 2、 6、 7、 1 4 ) の区別及び又はファイルシステムの区別をすること無く、 任意のファ ィルをアクセスするようにした。
資源 ( 2 ~ 9 ) の分割及び動的割り当てを行なうと共に、 多種複数ス ト レージ ( 2、 6、 7、 1 4 ) をファイルシステムによって統合し及び速度、 特徴によつ て階層化し、 その階層化された多種複数ス ト レ一ジ ( 2、 6、 7、 1 4 ) 上へフ アイルシステムを構築し、 ユーザが多種複数ス ト レージ ( 2、 6、 7、 1 4 ) の 区別及び又はフアイルシステムの区別をすること無く、 任意のファイルをァクセ スするようにしたことにより、 ユーザの不公平さを解消すると共に、 ユーザの使 い勝手を向上し得る。 図面の簡単な説明
図 1 は本発明による情報記憶処理装置の一実施例の概略の構成を示すブ口ック 図である。
図 2は情報記憶処理装置の構成を示すブ nック図である。
図 3は情報記憶処理装置における資源の分割の説明に供する略線図である。 図 4は情報記憶処理装置における分割資源のソフ トウェア管理モジュールの説 明に供する略線図である。
図 5は情報記憶処理装置における多種複数ファイルシステムの統合の説明に供 する略線図である。
図 6は情報記憶処理装置におけるオフライ ンフアイル管理の説明に供する略線 図である。
図 7は情報記憶処理装置におけるォンライ ン及びォフライ ン記憶メディァ管理 の説明に供する略線図である。
' 図 8 は情報記憶処理装置における自動ラベリ ング機構を示すブ Dック図である 図 9は情報記憶処理装置におけるオンライ ン容量の自動調整の説明に供する略 線図である。
図 1 0 は他の実施例における多種複数フアイルシステムの総合の説明に供する 略線図である。
図 1 1 は情報記憶処理装置におけるファイルのステージングの説明に供するブ ロック図である。 図 1 2は情報記憶処理装置におけるリムーバブルス ト レージのス oッ ト管理の 説明に供する略線図である。
図 1 3は情報記憶処理装置における情報記憶処理手順を示すフ n—チヤ一卜 で ある。
図 1 4は図 1 3のガーデンマネージャ生成処理手順を示すフローチャー トであ る。
図 1 5は図 1 4において作成されるパスマップテーブルを示す略線図である。 図 1 6は図 1 4 のス ト レージマネ一ジャ生成処理手順を示すフ 一チヤ一トで ある。
図 1 7は図 1 6のマウ ン ト処理手順を示すフ ローチャー トである。
図 1 8は図 1 6 の リ ー ド ライ ト ァク セス処理手順を示すフ σ—チヤ一トであ る。
図 1 9は図 1 8のキャッシュチェック処理手順を示すフ ローチャー トである。 図 2 0は図 1 9において使用されるキヤッシュデータ管理リス トを示す略線図 である。
図 2 1 は図 1 8のガーデンフアイルシステム ( G F S ) 処理手順を示すフ口一 チヤ一トである。
図 2 2は図 2 1 のメディァマネ一ジャ生成処理手順を示すフ口一チヤ一トであ る。
図 2 3は図 2 2のオフライ ン処理手順を示すフ Ώ一チヤ一トである。
図 2 4は図 2 3のメディア内管理テーブルを示す略線図である。
図 2 5は図 2 2のリ ー ドキヤッシュ処理手順を示すフ ロ一チヤ一 トである。 図 2 6は図 1 9及び図 2 5 において使用されるメディァアク セス管理テーブル を示す図表である。
図 2 7は図 2 2のライ トキャッシュ処理手順を示すフ η—チャー ドである。 図 2 8は図 2 7のアクチュアルライ ト処理手順を示すフ ロ一チヤ一トである。 図 2 9 は図.2 8のメディァ排出処理手順を示すフロ一チヤ一 トである。 図 3 0は図 1 8の他ファイ ルシステム処理手順を示すフ ローチャー トである。 発明を実施するための最良の形態
以下図面について、 本発明の一実施例を詳述する。
( 1 ) 情報記憶処理装置の全体構成
図 1 において、 1 は全体として情報記憶処理装置を示し、 情報記憶処理装置 1 は、 第 1 のス ト レージとして第 1 の記憶メディァすなわち光磁気ディスクを着脱 装置 2 Aによって外部から着脱できるように光磁気ディスクメモ リ 2 Bに収納す るオー トチェンジャ 2を有すると共に、 第 2及び第 3のス ト レ一ジと して第 2及 び第 3の記憶メディァすなわち ドディスク及び半導体ラ ンダムアクセスメモ リ (R AM) をもつ ドディスクメモリ 3及び半導体メモ リ 4を有し、 中央処 理装置 (C P U) 5によって内部メモ リ 6に格納されているォペレ一ティ ングシ ステム、 管理ソフ ト ウェア等のソフ ト ウェアに従って、 光磁気ディスク ド ディスク及び半導体メモリ素子の記憶領域にデータを書込み処理又は読出し処理 することができるようになされている。 ォー トチェンジャ 2 としてジ クボッ クスと呼ばれる装置を適用し得る。
ここで、 情報記憶処理装置 1 は、 図 2に示すように、 書込み又は読出し処理時 のアクセス時間が順次大き く なる複数の種類のス ト レージ、 すなわち半導体メ モ リ 4、 ハー ドディスクメモ リ 3及び光磁気ディ スクメモ リ 2を、 バス 6を介して 、 全体と して 1 つのス ト レージ 7 と して管理する。
このようにして C P U 5は、 ス ト レ一ジ 7に書き込み又は読み出すべきデータ をネッ トワークイ ンタ一フェース 8を介して例えばイーサネッ ト (Ethernet) 、 F D D I (fiber distributed data interface) などで構成されたネッ トワーク 9に結合することにより、 当該ネッ トワーク 9に接続されているク ライ アン ト、 すなわちパソコ ンク ライアン ト 1 0及び 1 1 、 ワークステーショ ンク ライ アン ト 1 2等を含むコ ンピュ一タのファイ ルシステムに対して、 N F S (Network File System ) として結合して、 データを送信し又は受信する。 情報記憶処理装置 1 は、 ファイ ルシステムのク ライ アン トからのデータをォー トチェンジャ 2によって第 1 の記憶メディァである光磁気ディスクメモ リ 2 Bに 記憶させた後、 当該記憶済みの光磁気ディスク DM0が着脱装置 2 Aによって外部 に取り出されてオペレータによって外部貯蔵部に貯蔵されることにより、 データ を外部に貯蔵することができる。
かく して着脱装置 2 Aから光磁気ディスク DM0が取り出されたとき、 C P U 5 はラベルプリ ンタ 1 2によって当該取り出された光磁気ディスク DM0に対して割 り当てたアクセス情報をラベル LBLにプリ ン ト してオペレータに給付し、 これに よりオペレータが当該給付されたラベル LBLを取り出された光磁気ディスク DM0 に貼りつけて貯蔵できるようにする。
この結果、 情報記憶処理装置 1 は、 ク ライアン ト 1 0、 1 1 、 1 2から外部貯 蔵されている光磁気ディスク DM0に記憶させたデータに対するアクセス情報が到 達したとき、 当該アクセス情報をオペレータに報知し、 これによりオペレータが 対応する光磁気ディスク DM0を簡易に探し出してォー トチヱンジャ 2の着脱装置 2 Aに装着できるようにする。
( 2 ) 記憶資源の管理
情報記憶処理装置 1 の資源である C P U 5及びネッ トワークィ ンターフ ェース 8 と、 ス ト レージ 7中の半導体メ モ リ 4、 ハー ドディ スクメ モ リ 3及びオー トチ ェンジャ 2のスロ ッ トに装着された光磁気ディスク とは、 図 3において分割線 L a 、 L b 及び L c に つて示すように、 複数の資源のヮーキングセッ トとして分 割され、 当該分割された資源のワーキングセッ トを管理する主体となるソフ トウ エア (以下、 れをガーデンと呼ぶ) に動的に (すなわち時間の経過に従って変 更できるように) 割り当てる。
すなわち半導体メ モ リ 4、 ハー ドディスクメ モ リ 3及び光磁気ディスクメ モ リ 2 Bの記憶容量は、 それぞれ分割線 La 、 Lb 及び L c によって分割されること により、 半導体メモリ 4が 4つのメモリ領域部 A R 1 1 ~A R 1 4に切り出され 同様にして、 ハー ドディスクメモ リ 3が 4つのメモ リ領域部 A R 2 1 〜 A R 2 4 に切り出され、 さらに光磁気ディスクメモ リ 2 Bが 4つのメモ リ領域部 A R 3 1 〜A R 3 4に切り出される。
かく して切り出された資源のワーキングセッ トは、 それぞれ図 4に示すように 、 対応するソフ トウェア管理モジュールによって動的に管理される。 図 4におい て、 サーバマネージャ S VMは情報記憶処理装置 1 の資源全体を管理するモジュ ールで、 分割された資源のワーキングセッ トを管理する複数のガーデン G D N 1 ~G DN 3を生成すると同時に、 情報記憶処理装置 1 の資源を分割して資源のヮ 一キングセッ トとしてガーデン G DN 1 、 G DN 2…… G DNKに動的に割り当 てる。
因に図 3の実施例の場合、 第 1 のガーデン G DN 1 には半導体メモ リ 4、 ハー ドディスクメモリ 3及び光磁気ディスクメモ リ 2 Bのメモリ領域 A R 1 1、 A R 2 1及び A R 3 1 が割り当てられ、 また第 2のガーデン G DN 2には半導体メモ リ 4、 ハー ドディスクメモリ 3及び光磁気ディスクメモリ 2 Bのメモ リ領域 A R
1 2、 A R 2 2及び A R 3 2が割り当てられ 第 Kのガーデン G D N Kには半 導体メモ リ 4、 ハー ドディスクメモ リ 3及び光磁気ディスクメモリ 2 Bのメモ リ 領域 A R 1 K、 A R 2 K及び A R 3 Kが割り当てられる。
ガーデン G DN 1 、 G DN 2 G DNKはそれぞれ、 ガーデンマネージャ G
D M、 ス ト レージマネージャ S G M及びメディアマネージャ M D M 1 、 M D M 2 から構成されている。 ガーデンマネージャ G D Mとス ト レージマネージャ S
GMは各ガーデン G DNごとに 1 つずつ設けられ、 メディアマネージャ M DM 1
、 M D M 2 は、 ^ー トチェンジャ 2の光磁気ディスクメモ リ 2 Bにおいて資 源のヮ一ヰングセッ トとして確保したス ロッ ト ごとに設けられている。
かく して、 分割された資源のヮーキングセッ トはそれぞれ割り当てられたガー デン G DN 1 、 G DN 2…… G D N Kと 1対 1 の関係をもち、 これにより各ガー デン G DN 1 、 G DN 2…… G DNKは、 他のガーデンとは物理的に排他使用す ることができるような資源のワーキングセッ トをもつことができることになる。 ( 3 ) 記憶資源の階層化及びファイルシステムの処理
この実施例の情報記憶処理装置 1 は、 半導体メモ リ 4、 ハー ドディスクメ モ リ 3及びオー トチェンジャ 2の光磁気ディスクメモ リ 2 Bでなるス ト レ一ジ 7の記 憶資源を容量及び又はアクセス速度に応じて階層的に配置することにより、 ス ト レージ 7 (図 2 ) に対して、 容量及び又はアクセス速度の差異に基づく階層化を 行なう。
実際上この情報記憶処理装置 1 のク ライ アン ト に 1番頻繁にアクセスされる記 憶資源として半導体メモリ 4のような小容量高速ス ト レージを配置し、 2番目に 頻繁にアクセスされる記憶資源としてハー ドディスクメモ リ 3のような中容量中 速ス ト レージを配置し、 3番目に頻繁にアクセスされる記憶資源としてオー トチ ェンジャ 2の光磁気ディスクメモリ 2 Bのような大容量低速ス ト レージを配置す る。
このように記憶資源を階層化することにより、 コス トパフォーマンスに優れた 高速大容量のス ト レ一ジ構成を実現できる。
この情報記憶処理装置 1 の場合、 記憶資源のアクセス速度及び又は容量による 階層化は、 図 3 について上述した資源の分割領域である資源のワーキングセッ ト 単位に適用される。 従って資源のヮ一ヰングセッ トを管理する主体であるガーデ ン G D N 1 、 G D N 2 …… G D N Kの管理は、 自己の有する資源のワーキングセ ッ トに対して各ガーデンに唯一存在するガーデンマネージャ G D Mにより、 図 5 に示すように、 行なわれる。
図 5において、 各ガーデン G D N 1 、 G D N 2…… G D N Kが管理する資源の ヮ一キングセッ ト内において、 半導体メモ リ 4 、 ハ ー ドディスクメ モリ 3、 才一 トチェンジャ 2の光磁気ディスクメモリ 2 Bの順で階層化された多種複数 (同一 種類の記憶資源が同じ階層内に複数存在しても良い) の記憶資源に対して、 サ一 バフアイルシステム S F Sが導入され、 階層化された記憶資源の統合を行なう枠 組を各ガーデン G D Nに唯一存在するス ト レージマネージャ S G Mにより構築す る。 そのためサーバファイルシステム S F Sはこの情報記憶処理装置 1 に固有の ファイル管理構造を有する。
サーバマネージャ S V Mにより分割された記憶資源のワーキングセッ トは、 同 様にサーバマネージャ S V Mにより生成されたガーデン G D Nに動的に (すなわ ち時間の経過に従って変更できるように) 割り当てられ、 かく してス ト レージマ ネージャ S G Mによって行なわれる階層化された多種複数ス ト レージ上にフアイ ルシステムを構築できる。
実際上資源のワーキングセッ トを動的に割り当てられたガーデン G D N 1、 G
D N 2 G D N Kは、 各ガーデンのガーデンマネ一ジャ G D Mの呼び出し方を 工夫することにより記憶資源を階層化する。
すなわちガーデンマネージャ G D Mは、 ス ト レージマネージャ S G Mを呼び出 し、 呼び出されたス ト レージマネージャ S G Mは、 サーバファイルシステム S F Sを階層化されたス ト レージ上に構築する。 サーバファイルシステム S F Sは、 ルー ト a及び葉 b、 c、 dを含む木構造を有する。 各フアイルのノ一ド e、 f 、 dはス ト レージマネージャ S G Mにより、 階層化された資源のワーキングセッ ト 、 すなわち半導体メモリ 4、 ハー ドディスクメモ リ 3及び光磁気デイスクメモ リ 2 Bの分割されたメモリ領域部に、 オンライ ンス ト レージとして、 物理的に置か れる。
またパソコ ンク ライ アン ト 1 0、 1 1 、 ワークステーショ ンク ライ アン ト 1 2 等の各クライアン トのコ ンビュータがもっているス ト レ一ジ上にクライアン トフ アイルシステム C F Sが構築されており、 必要に応じてノ一ド同士を結合するこ とにより、 ク ライ アン ト ファイルシステム C F Sに情報記憶処理装置 1 がもって いるス ト レージ 7上に構築されているサーバフアイルシステム S F Sが結合され る。
例えばクライアン ト ファイ ルシステム C F S中のノ ー ド gに、 サーバファイ ル システム S F Sのノー ド aを結合 (以下、 これをマウン トと呼ぶ) することによ り、 ネッ ト ワークイ ンターフェース 8 (図 2 ) を経由して、 サーバファイ ルシス テム S F Sをクライアン トファイルシステム C F Sの一部として取り込める。 こ のことは、 ク ライ アン ト ファイルシステム C F Sが有するフアイルの木構造が、 ノ一ド gをマウン トすることにより、 サーバファイルシステム S F Sがもってい るフアイルの木構造を含む拡張された木構造をもっていることを意眛する。
このようにして、 クライアン トファイ ルシステム C F Sはサーバフアイ ノレシス テム S F Sにまで拡張され、 かつユーザ (クライアン ト サーバモデルにおける クライアン ト) は、 クライアン トファイルシステム C F Sの一部としてサーバフ アイルシステム S F Sをアクセスできる。 従ってこの情報記憶処理装置 1 のユー ザは、 フアイルが階層化されたス ト レージの物理的格納場所を意識することなく 、 ク ライ アン ト ファイ ルシステム C F Sを通じて、 サーバファイ ルシステム S F S中のフアイルをァクセスすることができる。
このよう に図 5に示すサーバフアイルシステム S F Sの木構造は常時 C P U 5 に接続された状態でアクセス制御されているス ト レージ 7 (以下これをォンライ ンス ト レージと呼ぶ) に構築されている。 これに対して、 ス ト レージ 7の一部を 構成するォ一 トチェンジャ 2には、 図 6に示すように、 内部に収納されている記 憶メディアとしての光磁気ディスクによって構成されるォンライ ンス ト レージ部 ◦ N Sと、 着脱装置 2 Aを介して外部に貯蔵されている リ ム一バブル記憶メディ ァとしての光磁気ディスクによって構成されるオフライ ンス ト レージ部 O F Sと を有し、 オンライ ンス ト レージ部〇 N Sを構成する光磁気ディ スク DM。】 〜D M0 4 にサーバファイルシステム S F Sの木構造の各ノー ドが構築されており、 オフ ライ ンス ト レージ部 O F Sを構成する光磁気ディスク にサーバファイルシステム S F Sと同様の木構造のオフライ ンファイルシステム O F F S 1及び O F F S 2 が構成される。
オフライ ンファイルシステム O F F S 1及び O F F S 2のノ ー ド j及び kはサ —バファイルシステム S F Sのノ ー ド f 及び dに接続され、 かく してオフライ ン ファイルシステム O F F S 1及び〇 F F S 2がサーバファイルシステム S F Sの 一部として機能することにより、 クライアン トファイ ルシステム C F Sの一部と して機能することになり、 その結果クライアン トファイ ルシステム C F Sがその 分拡張されたことになる。
図 5の場合、 ク ライ アン ト ファイルシステム C F Sはク ライ アン トのコ ンビュ 一タのス ト レージ上に構築されており、 サーバフアイルシステム S F Sのノ ー ド の一部がォンライ ンス ト レ一ジ部 0 N S (図 6 ) 中の光磁気ディスク DMD1 〜D M04 のリ ム一バブルメディァ上に構築され、 例えばサーバフアイルシステム S F Sのノ ー ド aが光磁気ディスク DM01 に配置され、 同様にノ ー ド b及び cが光磁 気ディスク DM02 に、 ノ ー ド f が光磁気ディスク DM03 に、 ノー ド dが光磁気デ イスク DM04 に配置されている状況にある。
またオフライ ンス ト レージ 0 F S領域にある光磁気ディスク M012には、 サーバ ファイ ルシステム S F Sのノ ー ド f に、 ノ ー ド j を介して接続されるオフライ ン ファイルシステム 0 F F S 1 が構築されており、 同様にオフライ ンス ト レージ〇 F S領域にある光磁気ディスク DM011に、 サーバファイルシステム S F Sのノー ド dにノー ド kを介して接続されるオフライ ンファイルシステム O F F S 2が構 築されている。
以上の構成に加えて、 オンライ ンス ト レ一ジ O N Sには 2つの仮想記憶メディ ァ VM , 及び VM2 が導入され、 第 1 の仮想記憶メディア VM , がオンライ ンス ト レージ部 O N S上においてサーバフアイルシステム S F Sのノ ー ド f が配置さ れている光磁気ディスク DMD3 とオフライ ンファイ ルシステム O F F S 1 のノ ー ド j が配置されている外部の光磁気ディスク DM011との間を接続する手段を提供 する。
また第 2の仮想記憶メディア VM2 が、 オンライ ンス ト レージ部 0 N S上にお いてサーバファイ ルシステム S F Sのノ ー ド dが配置されている光磁気ディスク D MO4 とオフライ ンファイルシステム O F F S 1 のノ ー ド kが配置されている外 部の磁気メモリ DM012との間を接続する手段を提供する。
この仮想記憶メディ ァ VM > 及び VM2 は光磁気ディ スク と してオンライ ンス ト レージ 0 N Sに実在するのではなく、 オンライ ンス ト レージ 0 N S上の記憶メ ディァ、 例えばハー ドディスクメモ リ 3の対応するヮーキングセッ ト内の領域部 に配置され、 対応するガーデン G DN k (k = l〜K) にそれぞれ設けられてい るス ト レージマネージャ S G N (図 4) によって管理される。
仮想記憶メディァ VM, の内容として、 オンライ ンス ト レージ部 ON Sの光磁 気ディスク DM03 上に存在するノ一 ド f に接続されるオフライ ンス ト レージ部 0 F Sの光磁気ディスク DM011に構築されているオフライ ンファイルシステム O F F S 1のディ レク ト リ情報 (フアイル実体をもっていない) が格納されている。 同様に仮想記憶メディア VM2 には、 オンライ ンス ト レージ部 0 N Sの光磁気デ イスク DM04 上に存在するノ 一 ド dに接続されるオフライ ンス ト レージ部 0 F S の光磁気ディスク DM012に構築されているオフライ ンファイ ルシステム O F F S 2のディ レク ト リ情報 (ファイ ル実体をもっていない) が格納されている。 このよう に、 オフライ ンス ト レ一ジ部 O F Sのメディァ上に構築されているフ アイ ルシステムのディ レク ト リ情報を仮想記憶メディ ァと してォンライ ンス ト レ —ジ部 0 N S上で管理するようにしたことにより、 ファイルシステム空間をオン ライ ン空間からオフライ ン空間まで拡張することができる。 かく してオンライ ン 空間上のサーバフアイルシステム S F Sと、 オフライ ン空間上のオフライ ンファ ィ ルシステム〇 F F S 1及び 0 F F S 2とを、 あたかも全体として論理的にォン ライ ンス ト レージ部上に存在するフアイルシステムのよう に扱う ことができる。 従って、 この情報記憶処理装置 1 を利用するユーザが、 オフライ ンス ト レージ部 0 F S上に存在するオフライ ンファイ ルをあたかもオンライ ンス ト レージ部 0 N S上に存在するオフライ ンファイ ルのよう に扱う ことができる。
次に、 サーバファイ ルシステム S F Sが配置されているォンライ ンス ト レ一ジ 部 ON S上の記憶メディァ及びオフライ ンス ト レージ部 0 F S上のオフラィ ン記 憶メディァに関する管理を、 ユーザ (クライアン ト /サーバ デルにおけるクラ イアン ト) の操作を含めて説明する。
図 7において、 クライアン ト A、 ク ライアン ト B、 並びにク ライアン ト Cは、 図 6のク ライ アン トと同様に、 図 5に示すク ライアン ト ファイ ルシステム C F S が配置されるオンライ ンス ト レージ部 0 N Sの記憶メディァとして、 光磁気ディ スク DM021、 DM022及び DM023、 DMOi 並びに DM02S及び DM026を有する。 また図 6の光磁気ディスク 0(^011並びに01^01 2と同様に、 図 5のオフライ ンフ アイルシステム O F F S 1及び O F F S 2が配置されているオフライ ンス ト レー ジ部 0 F Sの記憶メディァとしてクライ アン ト A並びに Bが、 外部貯蔵されてい る光磁気ディスク 0(^31並びに01^32及び0"033を有する。
この状態において、 オンライ ンス ト レ一ジ部 0 N Sには、 ク ライ アン ト Bにつ いて当該オンライ ンス ト レ一ジ部 ON Sからオフライ ンス ト レージ部 O F Sの方 向に光磁気ディスク DM032がすでに取り出された結果として残った仮想記憶メデ ィァ VM22が、 オフライ ンス ト レージ部 0 F S方向への記憶メディァの取出し操 作を表す情報として存在すると共に、 ク ライアン ト A並びに Bについて、 今後才 フライ ンス ト レ一ジ部 0 F Sからオンライ ンス ト レージ部 0 N Sの方向に光磁気 ディスク DM031並びに DM033を揷入するために設けられた仮想記憶メディァ VM21並びに VM23が存在する。
またオフライ ンス ト レージ部 0 F F Sには、 ク ライアン ト A及び Cについて、 今後ォンライ ンス ト レージ部 0 N Sからオフライ ンス ト レージ部 0 F F Sの方向 に光磁気ディスク DM022並びに DM02Sを取り出すために設けられた仮想記憶メデ ィァ VM31及び VM32が存在する。
実際上ク ライ アン ト Aがオンライ ン記憶メディ ァと しての光磁気ディスク DM0 22を外部に取り出すことによりオフライ ンに出す操作を行なったとき、 図 4に上 述したようにクライアン ト Aが現在持っているガーデン G D N k (k = 1〜K) のス ト レージマネージャ S G Μが、 オンライ ンの光磁気ディ スク DM022に配置さ れているサーバファイルシステム S F S中のディ レク ト リ情報を取り出し、 新た に光磁気ディスク DM022の代わりに才ンラ イ ンス ト レージ部◦ N S内に作成した 仮想記憶メディア上に、 ディ レク ト リ情報と同時に光磁気ディスク DM022に書か れている記憶メディア情報 (メディアラベル) として、 例えばファイ ル名を書き 込む。
併せてォンライ ン記憶メディァとしての光磁気ディスク DM021中に配置されて いるノー ド f (図 5) とオンライ ン光磁気ディスク DM22中に配置されているノ ード j (図 5 ) 間の接続情報も当該ォンライ ンス ト レージ部 0 N S内に形成した 仮想記憶メディァに書き込まれる。 その後ォンライ ン光磁気ディスク DM022はク ライ アン ト Aによりオンライ ンス ト レージ部 ON Sから外され、 仮想記憶メディ ァ VM31と して表すようにオフライ ンス ト レ一ジ部 O F Sのオフライ ン記憶メデ ィァとしてクライアン ト Aにより管理される。 かく してクライアン ト Bについて 、 オンライ ンス ト レージ部 ON Sの仮想記憶メディ ア VM.22と、 オフライ ンス ト レージ部 0 F Sの光磁気ディスク DM032との関係について上述したと同様の状態 に移行する。
その結果、 オンライ ン記憶メディァ上に配置されているサーバフアイルシステ ム S F Sとオフライ ン記憶メディ ァ上に配置されているオフライ ンファイルシス テム— 0 F F S 1及び 0 F F S 2の論理的な接続関係をオンライ ン上で保持管理す ると共に、 オンライ ンメディァ f 、 仮想記憶メディァ及びォフライ ン記憶メディ ァのメディァ間の相関も才ンライ ン上で保持管理することにより、 オンライ ンか らォフライ ンへのメディァの排出方向における、 オンライ ン記憶メディァ及びォ フライ ン記憶メディァの管理をすることができる。
またクライアン ト Bが、 仮想記憶メディア V M23のディ レク ト リ情報に書かれ ているファイ ルをアクセス した時、 ク ライ アン ト 0が現在持っているガーデン G DN kのス ト レージマネージャ S GMが仮想記憶メディァ VM23中に書かれてい る記憶メディアの相関情報を調べる。 これにより、 ファイ ル実体が格納されてい るオフライ ン記憶メディァとしての光磁気ディスク DM033を認識でき、 同じく仮 想記憶メディ ア VM23中に書かれているメディ ア情報 (電子ラ ベル) に基づいて クライアン ト Bに対して、 オフライ ン記憶メディァ DM033をォンライ ンス 卜 レー ジ部 0 N Sのオンライ ン記憶メディアとするよう指示することができる。
ク ライ アン ト Bがオフライ ン記憶メディ ァ DM033をォンライ ン記憶メディ ァの 状態に移行させると、 仮想記憶メディァ V M 23が記憶メディァ DMO33の実体と入 れ換わり、 この記憶メディァ DM033に配置されていたオフライ ンファイ ルシステ ム O F F S 1及び 0 F F S 2が、 オンライ ンス ト レージ部 O N S上に配置された サーバファイルシステム S F Sの一部として存在するようになる。 これによりォ フライ ンからオンライ ンへの記憶メディァの揷入方向における、 オンライ ン記憶 メディア及び才フライ ン記憶メディァの管理ができる。
( 4 ) 自動ラベリ ング機構
この実施例の場合、 ラベルプリ ンタ 1 3は、 図 8に示すように、 オー トチェン ジャ 2の着脱装置 2 Aと共に自動ラベリ ング機構を構成している。
オー トチェンジャ 2 は、 中央処理ユニッ ト (C P U) 2 1 によりメモ リ 2 2 に 配置されたソフ ト ウェアモジュールに従って、 内部バス 2 3 、 I 0コ ン ト ロー ラ 2 4 、 バス 2 5を介してロボティック 2 6及び光磁気記録再生ドライブ 2 7を 駆動制御することにより、 カー ト リ ッジ 2 8にリム一バブルに収納されている複 数枚の光磁気ディスクを指定してロボティ ック 2 6及び光磁気記録再生ドライブ 2 7 によって実体情報を書き込み又は読み出す光磁気ディスクメモ リ 2 Bを構成 すると共に、 ボテイツク 2 6を制御することにより、 ク ライ アン トがメディ ア 挿入排出口 3 1 に挿入した光磁気ディスク 3 0をカー ト リ ッジ 2 8に収納し、 又 は外部に取り出すようになされている。
図 8 において、 図 4 について上述した各マネージャのソフ ト ウエアモジュール はメ モ リ 2 2に配置されかつ C P U 2 1 によって実行される。 また図 5のサーバ ファイ ルシステム S F Sはカー ト リ ッジ 2 8中のリ ムーバブル記憶メディ アと し ての光磁気ディスクに格納されている。 こ こでク ライ アン トが図 5に上述したフ アイ ルシステムをアクセスする時のソフ ト ウェアモジユール及びハー ドウエアの 動作を、 ガーデン G D Nが有する資源のワーキングセッ ト及びその上に構築され たサーバフアイルシステム S F S、 オフライ ン記憶メディァ上に配置されたオフ ライ ンファイルシステム O F F S l 、 O F F S 2を例に説明する。 クライアン トからサーバファイルシステム S F Sのノー ド f (図 5 ) に対する アクセス要求があつたとすると、 ガーデンマネージャ G DMは、 自ら保持及び管 理するフアイルシステムの管理.情報よりクライアン トから要求の有ったフアイル を見つけ、 そのフアイルの管理情報をス ト レージマネ一ジャ S GMに渡す (図 4 ス ト レージマネ一ジャ S GMは、 当該フアイルが存在する光磁気ディスクに割 り当てられたカー ト リ ッジ 2 8のスロッ ト番号をフアイルの管理情報から読み取 つて、 対応するメディアマネージャ MDMを呼び出す。 呼び出されたメディアマ ネージャ MDMは、 ファイルの記憶メディアについての格納情報に基づいて、 I ZOコ ン ト ローラ 2 4、 バス 2 5を介して口ボテイ ツク 2 6を制御し、 カー ト リ ッジ 2 8に格納されている対応する記憶メディアをドライブ 2 7 に移動すること により、 クライアン トから要求されたノー ド f をアクセスする。
かく してクライアン トからのアクセス要求に応じて光磁気ディスクメモリ 2 B はアクセス動作を終了する。
次にクライアン トから、 オフライ ンファイルシステム O F F S 2中のノ ー ド k (図 5 ) に対するアクセス要求があつたとすると、 ガーデンマネージャ G DMは 、 自ら保持及び管理するフアイルシステムの管理情報よりク ライ アン トから要求 があったファイ ルを見つけ、 そのフアイルの管理情報をス ト レージマネージャ S GMに渡す。 ス ト レージマネージャ S GMは、 フアイ ルの管理情報から、 そのフ アイルがォフライ ンメディァ上に配置されていることを認識する。 これは図 7に ついて上述したように、 メモ リ 2 2に格納されている仮想メディァについての情 報をス ト レージマネージャ S G Mが調べることにより実行される。
ァクセス要求されたノ一ド kが配置されているオフラィ ン記憶メディァが図 7 の光磁気ディスク DM031であれば、 ス ト レージマネージャ S G Mは、 仮想記憶メ ディア (VM21) 上のメディア情報 (電子ラベル) をガーデンマネージャ G DM に渡す。 ガーデンマネージャ G DMは、 電子ラベルの記憶メディア情報をクライ ァン トに伝える。 クライアン トは当該記憶メディァ情報に基づいて、 オフライ ン ス ト レージ 0 F Sから該当するオフラィ ン記憶メディ ァとしての光磁気ディスク DM031を外部貯蔵部から探し出し、 オンライ ンス ト レージ部 0 N Sの仮想記憶メ ディア VM21に置き換えるために、 メディァ揷入棑出口 3 1 より挿入する。 かく してガーデンマネージャ G DMは仮想記憶メディァとして管理されていた 光磁気ディスク DM031を実体を持ったォンライ ンス ト レージ ON Sのメディァと して管理情報を更新する。 ス ト レ一ジマネージャ S GMは、 挿入された光磁気デ イ スク DM03,をカー ト リ ッジ 2 8の空いているス 1□ッ トに移動させるために、 メ ディアマネージャ M DMを呼び出す。 メディアマネージャ MDMは、 指定された カー ト リ ッジ 2 8のスロッ トに今挿入された光磁気ディスク DM031を移動する。 これ以降は上述したノ一ド f のアクセスと同様な手順でノ一ド kがアクセスされ る。
実際上、 ラベルプリ ンタにはドッ ドイ ンパク トプリ ンタをオー トチェンジャ 2 内部に設置すると共に、 これを内部配線を用いて内部バス 2 3に接続することに より、 オー トチェンジャ 2の C P U 2 1力、らラベルプリ ンタ I 3を制御できるよ うになされている。
これにより、 新規使用のリ 厶ーバブル記憶メディァとしての光磁気ディスク に 、 ユーザが容易に読めかつ識別可能なラベルを、 メディアの表面にプログラム制 御により自動的に貼ったり、 印刷したりすることができる。 リ ムーバブル記憶メ ディアのメディァ情報としての電子ラベルの書き込みと同時に、 視覚情報として ラベルをメディァの表面に付着することにより、 クライアン トによるオフライ ン 記憶メディァの管理が容易になると共に、 クランアン トによるオフライ ン記憶メ ディァのオンライ ン記憶メディァへの移行操作を容易かつ確実に実行し得る。
( 5 ) オンライ ン及びオフライ ン容量の自動調整処理
図 9において、 ク ライ アン ト Aにはガーデン GDN 1 によ て管理される資源 のヮ一キングセッ トが割り当てられており、 オンライ ンス ト レ一ジ部 0 N Sの記 憶資源を構成している半導体メモリ 4、 ハー ドディスクメモリ 3及び光磁気ディ スクメモ リ 2 B、 並びにオフライ ンス ト レージ部 0 F Sを構成している外部貯蔵 庫の光磁気ディスクについて、 ガーデン G DN 1がもっている記憶容量は、 ガー デン G DN 1 を表す帯状部と半導体メモリ 4、 ハー ドディスクメモリ 3及び光磁 気ディスクメモリ 2 B、 並びに外部貯蔵庫の記憶領域を表す帯状部との交差面積 に対応する値として表わし得る。
図 9において、 ガーデン G D N 1 、 G D N 2及び G D N 3のメモ リ 4、 ハー ド ディスクメモリ 3及び光磁気ディスクメモリ 2 B、 並びに外部貯蔵庫の記憶容量 をそれぞれ容量表示 (Q A 1、 Q A 2及び Q A 3並びに Q A 4 ) 、 (QB 1 、 Q B 2及び QB 3、 並びに QB 4 ) 及び (QC 1 、 QC 2及び QC 3、 並びに QC 4 ) の大きさによって表す。
そこで、 例えば半導体メモリ 4に関して、 各ガーデン G D N 1 、 G D N 2、 G DN 3の容量表示 Q A 1、 QB 1及び QC 1 の面積比が異なるのは、 各ガーデン G DN 1 、 G DN 2、 G D N 3の資源のワーキングセッ トとして割り当てられた 半導体メ モリ 4の容量が一律ではないことを意眛している。 これはハー ドデイス クメモリ 3及び光磁気ディスクメモ リ 2 Bのス ト レージの資源の分割に関しても I口」様である。
上述したように各ガーデン G DN 1 、 G DN 2、 G DN 3が、 自己の持つ資源 のヮーキングセッ ト内の半導体メモリ 4、 ハー ドディスクメモリ 3、 光磁気ディ スクメモ リ 2 Bのス ト レ一ジをアクセス時間及び記憶容量に基づいて階層化し、 それぞれ階層化記憶資源 (QA 1 、 QA 2、 QA 3 ) 、 (QB 1 、 QB 2、 QB 3 ) 、 (QC 1 、 QC 2、 QC 3 ) 上に、 図 5 に上述したサーバファイ ルシステ ム S F Sを構築する。 またオフライ ンス ト レージ部 0 F S中の階層化記憶資源 ( Q A 4 s QB 4、 Q C 4 ) 上には 図 5に上述したオフライ ンファイルシステム O F F S l 、 O F F S 2が構築されている。
ス ト レージの階層化及びフアイ ルシステムの構築は、 各ガーデン G DN 1 、 G D N 2 s G D N 3が有するガーデンマネージャ G D M、 ス ト レージマネージャ S G M、 メディアマネージャ M D Mでなるソフ トウエアモジュールが行なう。 さら に各ガーデン G DN 1 、 G DN 2、 G D N 3が有するガーデンマネージャ G D M 、 ス ト レージマネージャ S G M、 メディ アマネージャ M D Mの各ソフ ト ウェアモ ジュールは、 時系列に階層化記憶資源 (QA 1 、 QA 2、 QA 3 ) 、 (QB 1 、 QB 2、 Q B 3 ) 、 (QC 1、 QC 2、 Q C 3 ) のオンライ ンス ト レージの容量 を変化させる。 これは、 各クライアン トによるサーバファイ ルシステム S F S中 のフアイ ルのアクセス頻度及びフアイ ルサイズに合わせて行なわれる。
かく して、 各ガーデン G DN 1 、 G DN 2、 G DN 3が有する資源のヮ一キン グセッ トである半導体メモリ 4の記憶資源 Q A 1 、 QB QC 1 の容量、 ハー ドディスクメモリ 3の記憶資源 Q A 2、 QB 2、 Q C 2の容量及び光磁気デイス クメモリ 2 Bの記憶資源 Q A 3、 QB 3、 QC 3の容量を、 各ガーデン G D N 1 、 G D N 2 s G D N 3の持つク ライ アン トのファイ ルのアクセス特性に合わせ、 動的に (時間の経過に従って) 変化させることにより、 各クライアン トに対して 資源を公平かつ効率的に割付けることができる。
またこの情報記憶処理装置 1 では、 オンライ ンス ト レ一ジ容量を自動調整する ことにより、 各クライアン トに対して資源を公平かつ効率的に割付けることに加 えて、 図 7について上述したようなォンラィ ン及びオフラィ ンメディァ管理を適 用することにより、 オンライ ンス ト レージ容量そのものを動的に増加し得るよう になされている。 ここで図 7のオンライ ンス ト レ一ジ部〇 N Sにあるオンライ ン 記憶メディア、 すなわち光磁気ディスク DM021〜DM026上には、 サーバファイ ル システム S F Sが配置されている。
また図 7のオフライ ンス ト レージ部 O F Sにあるオフライ ン記憶メディ ア、 す なわち光磁気ディスク DM031~DM033には、 オフライ ンファイ ルシステム O F F S 1 、 0 F F S 2が配置されている。 従って図 9において、 サーバファイ ルシス テム S F Sはオンライ ン記憶メディァと しての光磁気ディスクメ モリ 2 Bの光磁 気ディ スクの記憶資源のワーキングセッ ト QA 3、 QB 3、 QC 3上に配置され 、 かつオフライ ンファイ ルシステム 〇 F F S 1 、 0 F F S 2はオフライ ン記憶メ ディァとしての光磁気ディスクの記憶資源のワーキングセッ ト QA 4、 QB 4 s Q C 4上に配置されている。
上述した才ンライ ン及びオフライ ンメディ ァ管理では、 ク ライ アン トがオンラ ィ ンメディ アをオフライ ンに取り出す操作を行なったが、 各ガーデン G D N 1、 G DN 2、 G D N 3が有するガーデンマネージャ G D M、 ス ト レージマネージャ S GM、 メディ アマネージャ MDMの各ソフ ト ウェアモジュールにより、 オー ト チェンジャ 2の光磁気ディスクメモリ 2 Bの容量 QA 3、 QB 3、 QC 3上に構 築されたアクセス頻度の低いフアイルを自動的に選び出すと共に、 これをオフラ イ ンファイ ルシステム O F F S 1、 O F F S 2の候補とする。
次に、 該当するファイ ルが配置されているオンライ ン記憶メディア (例えば図 の光磁気ディスク DM022及び DM02S) の排出をクライ アン トに指示することによ り、 光磁気ディスクメモリ 2 Bのス ッ トを開放させるようにする。 このよう に 、 アクセス頻度の低いフアイルが配置されているォンライ ンメディ アをオフライ ンに自動的に移行させることにより、 実質的にオンライ ンス ト レージ容量を動的 に増加させることができる。
以上のように情報記憶処理装置 1 によれば、 フアイルシステム空間をオフラィ ンまで拡張し、 オンライ ン及びォフライ ン記憶メディァを管理し得るようにする ことにより、 ク ライ アン ト に対してオンライ ンス ト レージに入り切らないオフラ イ ンファイ ルを、 オンライ ン上で操作し得るようにできる。 さ らにク ライ アン ト 主導であったォンライ ン及びオフライ ン管理を拡張することにより、 オンライ ン ス ト レ一ジ容量を動的に増加できる。
これに加えて、 オフライ ンまで拡張されたフアイ ルシステム空間の整合性を保 ち、 オンライ ン及びォフライ ンメディ ァ管理に基づいて、 オンライ ンス ト レ一ジ 容量の自動調整を各ガーデン G DNに対して行なう ことにより、 当該ガーデン G D Nを持つ各クラ イ アン トに対して、 実用上制限なく記憶容量を拡大できるよう なファイ ルを提供することができる。
('6 ) 情報記憶処理動作 以上の構成において、 情報記憶処理装置 1 は以下に述べる処理手順に従って情 報記憶処理動作を実行する。
まず情報記憶処理装置 1 の C P U 5 は図 1 3のメ イ ンルーチン R T 0 により初 期化を開始し、 ステップ S P 1 においてネッ トワーク 9から情報記憶処理装置 1 にいずれかのクライアン トからガーデン生成要求が到来するのを待ち受け、 肯定 結果が得られたときステップ S P 2においてガーデンマネージャを生成する。 このときガーデンマネージャは図 1 4に示すマネージング処理手順を実行する すなわちガーデンマネージャは図 1 4のステップ S P 1 1 において図 1 5に示 すようなパスマップテ一ブルを作成した後、 ステップ S P 1 2において図 4のス ト レージマネージャを生成してステップ S P 1 3において当該処理を終了する。 パスマップテーブル T B L 1 は、 各フアイルシステムに対して設けられており 、 図 5又は図 1 0に示すサーバファイルシステム S F S、 オンライ ンファイルシ ステム O F F S 1及び O F F S 2、 並びにス ト レ一ジファイルシステム S A F S 及び S B F Sを構成する各ノ一 ド等についての情報をもつもので、 ハ一 ドディス クメモリ 3に記憶される。 このパスマップテーブル T B L 1 は図 1 5 ( A ) に示 すように、 エン ト リ に対するヘッダとして、 ファイ ルシステムタイプが記憶され ている。 このファイルシステムタイプとしては、 本発明に関わるガーデンフアイ ノレシステムや、 U N I Xユーザファイ ルシステム等の他のファイ ルシステムがあ る。
パスマップテーブル T B L 1 の各ェン ト リ は、 フアイルタィブとして 「通常フ アイル」 、 「ディ レク ト リ 」 又は 「マウ ン トポイ ン ト」 を表す複数のェン ト リ テ 一ブルで構成されるもので、 ファイ ル用エン ト リテーブル T B L 2の場合は図 1 5 ( B ) に示すように、 ファイ ルタイプとして 「ファイ ル」 と記憶されると共に 、 他の情報として 「ファイ ル名」 及び 「記憶メディア番号」 及び 「ファイ ル番号 」 を記憶する。 これに対して、 ディ レク ト リ又はマウン トポイ ン ト用ェン ト リテ 一ブル T B L 3の場合は図 1 5 ( C ) に示すように、 フアイルタイブとして 「デ ィ レク ト リ」 又は 「マウン トポイ ン ト」 と記億されると共に、 ほかの情報として 「パス名」 及び 「他のパスマップテーブルへのポイ ンタ」 を記憶する。
かく して図 4のガーデン G D N 1 ないし G D N Kのガーデンマネージャ G D M が形成されると、 C P U 5はステップ S P 1 2においてス ト レージマネージャを 生成する。
このときス ト レ一ジマネージャは図 1 6に示すようなマネージング処理ルーチ ン R T 2 に入り、 ステップ S P 2 I においてァクセス要求が到来するのを待ち受 け、 アクセス要求があつたときステップ S P 2 2 においてアクセス要求がマウン ト要求であるか否かを判断する。
ここで肯定結果が得られたとき、 このことは現在アクセス要求があったノー ド について当該ノ一ドは他のフアイルシステムに接続するようなマウン ト処理が必 要なことを意味し、 このとき C P U 5はマウン ト処理サブルーチン R T 3に移つ て図 1 7 に示すようなマウン ト処理手順を実行する。
マウン ト処理サブルーチン R T 3において、 C P U 5はまずステップ S P 3 1 においてマウ ン ト先 (例えば図 5のオフライ ンファイルシステム O F F 1、 O F F 2のノ ー ド j、 k ) のパスマップテーブルのファイルシステムタイプを指定し てフアイ ルシステムに設定した後、 次のステップ S P 3 2 においてパスマップテ 一ブル (図 1 5 ) のファイ ルタイプにマウン トポイ ン ト (T B L 3 ) を設定し、 その後ステップ S P 3 3からス ト レージマネージャ処理ル一チン (図 1 6 ) に戻 る。
これに対してステップ S P 2 2において否定結果が得られると、 このことはァ クセス要求がマウ ン ト処理ではない、 すなわち リー ド処理又はライ ト処理である ) ことを意味し、 このとき C P U 5はリー ドノライ トアクセス処理サブルーチン R T 4に移る。
このリー ド ライ トアクセス処理サブルーチン R T 4に入ると、 C P U 5 は図 1 8 に示すように先ずステップ S P 4 1 においてパスマップテーブル (図 1 5 ) によってクライアン トが指定したファイ ル (すなわち、 ファイ ルシステムタイプ (図 1 5 ( A ) ) ) 、 ファイ ル又はマウン トポイ ン トについてのファイ ルタイプ (図 1 5 ( B ) 又は (C ) ) をリサーチした後、 キャッシュチェックサブルーチ ン R T 5を実行する。
キャッシュチェックサブルーチン R T 5は、 光磁気ディスクメモリ 2 Bに記憶 すべきフアイルデータがハー ドディスクメモリ 3に読み出されている状態になつ ているか否かをチェックする処理を実行するものである。 キャッシュチェックサ ブルーチン R T 5に入ると、 C P U 5は図 1 9に示すように、 ステップ S P 5 1 において現在のアクセス要求がリ一 ドアクセスか否かの判断をし、 リー ドァクセ スである場合にはステップ S P 5 2においてキヤッシュデータ管理リス トに当該 キューがあるか否かの判断をする。
ここでキヤッシュデータ管理リス トは、 ハー ドディスクメ モリ 3に格納されて おり、 図 2 0に示すように、 光磁気ディスク トモリ 2 Bの全ス口ッ トに対応する 数のキャッシュブロック C B 1 、 C B 2、 を有し、 各キヤッシュブ口ック C
B j ( j = 1 、 2、 ) ごとに、 リ一 ド又はライ ト、 キヤッシュブ口ック番号 及び次へのポイ ンタの情報を含む。 このキャッシュデータ管理リ ス トは L R U ( l east-recent l y-used ) 方法によって管理され、 最も最近アクセスされたブロッ クがキューの先頭、 すなわち図 2 0における一番左側のブロック C B 1 としてつ ながれるようにリ ス トアップされている。
ステップ S P 5 2において肯定結果が得られたとき、 C P U 5はステップ S P 5 3に移って当該発見されたキューについてリ一ドキヤッ シュ管理リ ス トの先頭 にキューィ ング処理を実行すると共に、 当該キューィ ング処理されたブ Dックの フアイルデータを読み出した後、 ステップ S P 5 9から リ ー ド ライ トアクセス 処理ルーチン R T 4 (図 1 8 ) に戻る。
これに対してステップ S P 5 2において否定結果が得られたとき、 C P U 5 は ステップ S P 5 5に移ってキャッシュミスヒッ ト処理をすることにより、 キヤッ シュミ スヒッ トであったことを内部メモリ 6に記億した後、 ステップ S P 5 4に 移って当該処理を終了する。 また上述のステップ S P 5 1 において否定結果が得られると、 このことは現在 のアクセス要求がライ トモー ドであることを意味し、 このとき C P U 5はステツ プ S P 5 6に移ってス ト レージ 7に記憶すべきフアイルデータを一旦ハー ドディ スクメ モリ 3に書き込むと共に、 当該アクセス要求がライ トアクセス要求であつ たことを内部メモリ 6に記憶した後上述のステップ S P 5 4に移って、 当該処理 を終了する。
かく してキャッシュチェック処理が済むと、 C P U 5はリー ド ライ トァクセ ス処理サブルーチン R T 4 (図 1 8 ) に戻って、 ステップ S P 4 2においてキヤ ッシュ済みか否かの判断をする。
ここで肯定結果が得られると、 C P U 5はステップ S P 4 3からス ト レージマ ネージング処理ルーチン (図 1 6 ) に戻る。 これに対して、 ステップ S P 4 2に おいて否定結果が得られたとき、 C P U 5はステップ S P 4 4に移って、 パスマ ッブテーブル (図 1 5 ) のファイルシステムタイプから、 上述のステツプ S P 2 1 (図 1 6 ) において到来したアクセス要求がガーデンファイルシステム (G F S) で管理されるファイ ルデータであるか否かの判断をし、 肯定結果が得られた とき当該ガーデンフアイルシステム処理ルーチン R T 6の処理に入る。
ガーデンフアイルシステム処理ルーチン R T 6に入ると、 C P U 5は図 2 1 に 示すようにステップ S P 6 1 において初めてそのディスクをアクセスしたか否か の判断をし、 肯定結果が得られたときステップ S P 6 2において図 4のメディア マネージャを生成して、 ステップ S P 6 3から リー ド/ライ トアクセス処理ルー チン R T 4 (図 1 8 ) に戻る。
このとき、 C P U 5は図 2 2に示すよう に、 ステップ S P 7 1 においてメディ ァアクセス管理テーブル (図 2 6 ) の読み込み処理を実行した後、 ステップ S P 7 2において当該メディァマネ一ジャがォフライ ンであるか否かの判断をし、 肯 定結果が得られたときオフラィ ン処理サブルーチン R T 8の処理をした後上述の ステップ S P 7 1 に戻る。
ここで、 C P U 5は、 ステップ S P 7 2において、 メディ アアクセス管理テ一 ブル T B L 3 1 に記憶されているメディァ番号の中に、 アクセスされるファイ ル が記憶された光磁気ディスクのメディァ番号と一致するものがあるか否かを判断 する。 因に、 アクセスされるファイルが記憶された光磁気ディスクのメディア番 号はパスマップテーブル T B L 1 のフアイルタィプ記憶情報のうち記憶メディ ァ 番号から知ることができる。
またオフライ ン処理サブルーチン R T 8に入ると、 C P U 5は図 2 3に示すよ ?に、 ステップ S P 8 1 において、 メディァ内管理テーブル T B L 1 1 (図 2 4 ) のメディァラベルをクライアン トに出力する処理を実行する。
ここでメディ ア内管理テーブル T B L 1 1 は各記憶メディ ア (すなわち光磁気 ディスク 2 B ) に設けられ、 このテーブル T B L 1 1 は図 2 4 ( A ) に示すよう に、 「メディアラベル」 、 当該記憶メディ ア内に記憶されているファイルの 「フ アイル番号」 及び 「ノー ドポイ ンタ」 についての管理情報を含んでいる。
各記憶メディ ァのメディ ァ内管理テーブル T B L 1 1 の各フアイル番号のノ一 ドポイ ンタで示す位置には、 図 2 4 ( B ) に示すようなノー ドテーブル T B L 1 2が記憶されており、 これにより 「オーナ」 、 「パー ミ ッション」 、 「アクセス 時刻」 、 「変更時刻」 、 「シングルブロックポイ ンタ」 (図 2 4 ( C ) に示すよ うに、 ファイ ル実体であるデータを含んでいる) 、 「ダブルブロックポイ ンタ」
(図 2 4 ( C ) に示すように、 ブ ックポイ ンタ及び対応するファイ ル実体のデ ータを含んでいる) 及び 「 ト リプルブロックポイ ンタ」 (図 2 4 ( C ) に示すよ うに 2つのプロックボイ ンタ情報及びフアイルデータを含んでいる) の情報を格 納している。
かく してステップ S P 8 1 (図 2 3 ) においてメディ アラベルを出力すると、 C P U 5は次のステップ S P 8 2においてユーザが指定されたメディァのォ一 ト チェンジャ 2の着脱装置 2 Aに挿入するのを待ち受け、 当該挿入がなされたこと を確認するとステップ S P 8 3を介してメディァマネージャ処理ルーチン R T 7 (図 2 2 ) のステップ S P 7 1 に戻る。 ここでユーザはメディアに貼られたラベ ルにより目的とする記憶メディァを判別することができる。 メディアマネージャ処理ルーチン R T 7 (図 2 2 ) のステップ S P 7 2におい て否定結果が得られると、 このことはアクセス要求されたフアイルはオフライ ン ではないこと、 すなわちオンライ ン (スロッ ト にメディァが揷入されていること ) を意味し、 このとき C P U 5はステップ S P 7 3に移ってメディア内管理テ一 ブル (図 2 4 ) の当該フアイル番号より i番目のノ一ドボイ ンタが指す i番目の ノ一ドをテーブル T B L 1 2に読み込んだ後、 ステップ S P 7 4においてリ一ド コマン ドが必要であるか否かの判断をする。
このステップ S P 7 4において肯定結果が得られると、 C P U 5はリー ドキヤ ッシュ処理ルーチン R T 9の処理を実行する。
リ一ドキヤッシュ処理ルーチン R T 9に入ると、 C P U 5は図 2 5に示すよう にステップ S P 9 1 においてキャッシュデータ管理リス トのキューの最後につな がっているブ πックをはずす処理を必要に応じて複数個について実行した後、 ス テツプ S P 9 2において i番目のノー ドテーブルのブロックボイ ンタが指すブ n ックからファイルデータを読み出す処理 (read ahead) を実行し、 続いてステツ プ S P 9 3においてキヤッシュデータ管理リス トに今読み込んだフアイルデータ を含むキューをキューの先頭につなぐ処理をすると共に、 次のステップ S P 9 4 においてメディァァクセス管理テーブル T B L 3 1 (図 2 6 ) のアクセスカ ウン トデータ及びステージング情報の更新処理を実行した後、 ステップ S P 9 5を介 してメディ アマネージャサブルーチン R T 7 (図 2 2 ) に戻る。
- こ こでメディ ァアクセス管理テーブル T B L 3 1 は図 2 6 に示すよう に、 ス ト レージ全体としてのスロッ ト番号ごとに、 「アクセスカウン ト」 (アクセス履歴 、 すなわちアクセスの回数を表す) 、 「ステージング情報」 (例えばアクセスタ ィムを表す情報等) 及び 「メディア nック Zアン nック情報」 を格納しており、 C P U 5は当該情報のうちステージング情報及びアクセス力ゥン ト情報を用いて ステップ S P 9 4における更新処理を実行する。
メディ ァマネ一ジャサブル一チン R T 7 (図 2 2 ) のステップ S P 7 4におい て否定結果が得られたとき、 このことは現在の要求はリ一ドコマン ドではないこ と、 すなわちライ トコマンドであることを意味し、 このとき C P U 5は次のライ トキャッシュ処理サブルーチン R T 1 0を実行する。
ライ トキャッシュサブルーチン R T 1 0に入ると、 C P U 5は、 図 2 7に示す ように、 ステップ S P 1 0 1 においてキヤッシュデータ管理リス ト (図 2 0 ) の ヰユーの最後につながつているプロックを外す処理を実行し (必要に応じて複数 個について実行する) 、 次の書き込み準備ルーチン R T 1 1 において当該フアイ ルの i番目のノー ドテーブル T B L 1 2 (図 2 4 ( B ) ) のブロックポイ ンタが 指すブ πックにフアイルデータを書き込むための書き込み準備をする。
この書き込み準備処理ルーチン R T 1 1 に入ると、 C P U 5は、 図 2 8に示す ように、 ステップ S P 1 1 1 において指定されるメディアに空きがあるか否かの 判断をする。
この判断は、 指定されたメディア、 すなわち光磁気ディスクの空き領域が残つ ていることにより書き込むべきファイ ルデータを当該光磁気ディスクに書き込め るか否かを確認するもので、 空き領域の程度が、 メディアアクセス管理テーブル T B L 3 1 (図 2 6 ) の残容量データとして各ス口ッ ト番号ごとに記憶されてい るデータを用いて調べる。
ステップ S P 1 1 1 において肯定結果が得られると、 このことは現在のァクセ ス要求によって書き込むべきフアイルデータを欠落なく光磁気ディスクに書き込 み得る状態にあることを意味し、 このとき C P U 5はステップ S P 1 1 2に移つ てメディァ内管理テーブル (図 2 4 ) のうち対応するノ一ドテ一ブル T B L 1 2 を更新すると共に、 パスマップテーブル T B L 1 (図 1 5 ) のエン ト リテーブル T B L 2又は T B L 3を更新した後、 ステップ S P 1 1 3においてライ トキャッ シュ処理ルーチン R T 1 0 (図 2 7 ) に戻る。
これに対して、 上述のステップ S P 1 1 1 において否定結果が得られると、 こ のことは指定されている記憶メディァ、 すなわち光磁気ディ クにはアクセス要 求された情報データを記憶する余裕がないことを意味し、 このとき C P U 5 はス テツプ S P 1 1 4に移ってォー トチェンジャ内の光磁気ディスクメモ リ 2 Bに空 いているメディァがあるか否かを判断する。
このステップ S P 1 1 4において C P U 5はメディアアクセス管理テーブル T B L 3 1 (図 2 6 ) の管理情報の中から、 残容量データが大き く、 かつ当該ガー デンが割り当てられていないスロッ ト (ガーデン番号として実在しないスロッ ト 番号) を探すような処理を実行する。
ステップ S P 1 1 4において肯定結果が得られると、 このことはォ一 トチェン ジャ 2内に空いているメディアを発見できたことを意味し、 このとき C P U 5は ステップ S P 1 1 5に移って当該記憶メディアについての情報をメディア内管理 テーブル TB L 1 1 (図 2 4 ) 内に管理テーブルを作る処理を実行した後、 ステ ップ S P 1 1 6においてメディァ内管理テーブル T B L 1 1 (図 2 4 ) のノー ド テーブルを更新すると共に、 パスマップテーブル TB L 1 のエン ト リテーブル T B L 2又は TB L 3を更新し、 かく してオー トチェンジャ 2内に空いているメデ ィァに対してアクセス要求があった情報データを書き込む準備を終了する。
したがつてこのとき C P U 5はステップ S P 1 1 3を介して上述のライ トキヤ ッシュ処理ルーチン; T 1 0 (図 2 7 ) に戻る。
またステップ S P 1 1 4において否定結果が得られると、 このことはォー トチ ェンジャ 2内には空いている記憶メディァがない状態にあることを意味し、 この とき C P U 5はステップ S P 1 1 7 に移ってメディ アアクセス管理テーブル T B L 3 1 に空きがあるか否かの判断をする。
このステップ S P 1 1 7における判断は、 メディァアクセス管理テーブル T B L 3 1 (図 2 6 ) のうちメディア番号の欄にデータが記憶されていないス ロ ッ ト 番号があるか否かを探すような処理を実行するステップで、 肯定結果が得られた ときには、 当該メディァ番号が記憶されていないス ロッ ト番号のス ロッ トに、 記 憶メディア、 すなわち光磁気ディスクが挿入されていないスロッ トがあることを 発見したことを意味し、 このとき C P U 5はステップ S P 1 1 8に移ってクライ ァン トに対して空メディァ、 すなわち情報が書き込まれていない光磁気ディスク を当該ス口ッ ト番号のス ッ トに挿入すべきことを表す情報をネッ トワークイ ン タ一フェース 8を介してク ライ アン トに出力した後、 ステップ S P 1 1 9におい て新しい光磁気ディスクが挿入されるのを待ち受ける状態になる。
やがてステップ S P 1 1 9において肯定結果が得られることにより、 クライア ン トが新しい記憶メディァを揷入したことが確認できると、 C P U 5は上述のス テツプ S P 1 1 6においてメディァ内管理テーブル TB L 1 1 のノ ー ドテーブル T B L 1 2を更新すると共に、 パスマップテーブル T B L 1 のエン ト リ テーブル T B L 2又は TB L 3を更新した後、 ステップ S P 1 1 3からライ トキャッシュ 処理ルーチン R T 1 0 (図 2 7 ) に戻る。
これに対して上述のステップ S P 1 1 7において否定結果が得られると、 この ことはォー トチェンジャ内に空いている記憶メディァが存在しない状態にあるこ とを意味し、 このとき C P U 5はメディァ排出処理ルーチン R T 1 2を実行する ことにより、 オー トチェンジャ 2内の一部の光磁気ディスクを引き抜く ようなメ ディァ排出処理をし、 これにより才ー トチェンジャ 2内に空きスロッ トを作るよ うな処理をした後、 上述のステップ S P 1 1 8、 S P 1 1 9、 S P 1 1 6、 S P 1 1 3を介してライ トキャッシュ処理ルーチン R T 1 0 (図 2 7 ) に戻るような 処理を実行する。
メディァ排出処理サブルーチン R T 1 2に入ると、 C P U 5は図 2 9に示すよ う にステップ S P 1 2 1 においてメディァアクセス管理テーブル T B L (図 2 6 ) 中のメディ アアクセスカウ ン ト及びステージング情報より一番アクセスが少な い記憶メディア (換言すれば頻度が低い記憶メディア) を選択した後、 ステップ S P 1 2 2において当該記憶メディァが ックされているか否かを判断する。 ここで肯定結果が得られると、 当該一番アクセスが少ない記憶メディァが勝手 にはォフライ ンに変更できないようなロックがかかっていることを意味し、 この とき C P U 5は上述のステップ S P 1 2 1 に戻って次にアクセスが少ない記憶メ ディ ァを選択した後、 当該記憶メディァについてステップ S P 1 2 2の処理を実 行する。
ステップ S P 1 2 2において否定結果が得られると、 このことは当該選択され た記憶メディァの排出をして良いことを意味しており、 このとき C P U 5 はステ ップ S P 1 2 3に移ってキャッシュデータ管理リ ス ト (図 2 0 ) を見て当該記憶 メディァでのフアイルデータのフラッシュを実行した後、 次のステップ S P 1 2 4から排出 · プリ ン ト処理を実行する。
ここで C P U 5は、 最後尾につながつているヰャッシュブ口ックのリー ド ラ ィ トデータがライ トであるとき、 当該ハー ドディ スクに記憶されている半ャッシ ュブロックのフアイルデータを光磁気ディスクメモ リ の対応する記憶メディ ァに 書き込むようなフラッシュ処理を実行する。
ステップ S P 1 2 4において、 C P U 5は、 メディァ内管理テーブル T B L 1 1 (図 2 4 ) 内の対応するスロ ッ ト番号の記憶メディアにメディ アラベルがすで に書き込まれたことがあるか否かの判断をし、 否定結果が得られたときステップ S P 1 2 5においてメディァラベルを作成し、 ステップ S P 1 2 6において当該 メディ アラベルをプリ ンタ I / Fを通してラベルプリ ンタ 1 3 (図 2 ) において ラベルに印刷する。 これにより、 ク ライ アン トがこのラベルを光磁気ディ スクの カー ト リ ツジに貼付けることによりオフライ ンになっても他の光磁気ディスクと の区別をすることができるようにする。 その後ステップ S P 1 2 7においてメデ ィァ内管理テ一ブル T B L 1 1 (図 2 4 ) のメディアラベルフィ ールドにメディ ァラベルを設定した後、 ステップ S P 1 2 8を介してメディァ排出処理サブルー チン R T I 2 (図 2 9 ) を終了する。
これに対して上述のステップ S P 1 2 4において肯定結果が得られると、 この ことはすでにメディア内管理テーブル T B L 1 1 (図 2 4 ) に当該メディ アラベ ルの書き込みがされているので新たな設定が不必要であること、 すなわち光磁気 ディスクのカー ト リ ツジにラベルが貼付け済であることを意味する。 このとき C P U 5 はステップ S P 1 2 5〜 S P 1 2 7 をジャンプしてステップ S P 1 2 8力、 ら上述の書き込み準備処理ルーチン R T 1 1 (図 2 8 ) に戻る。
かく して自動ラベリ ングを実行すると共に、 当該光磁気ディスクの外部への排 出の準備ないしは排出を実行する。 その後、 C P .U 5はステップ S P 1 1 8、 S P 1 1 9、 S P 1 1 6、 S P 1 1 3を順次通って書き込み準備処理ルーチン R T 1 1 を終了することにより、 上述のライ トキャッシュ処理ルーチン R T 1 0 (図 2 7 ) に戻ってそのステッブ S P 1 0 2において、 書込データの要求があるデ一 タについてキャッシュデータ管理リス トからキャッシュブロックをァロケ一 ト し 、 これをキューの先頭につなぐ処理を実行すると共に、 次のステップ S P 1 0 3 においてメディアアクセス管理テーブル T B L 3 1 (図 2 6 ) のステージング情 報を更新することによりライ トヰャッシュ処理サブルーチン R T 1 0を終了し、 ステップ S P 1 0 から上述のメディァマネ一ジャ生成処理サブルーチン R T 7 (図 2 2 ) に戻ると共に、 そのステップ S P 7 5を介してガーデンファイルシス テム (G F S) 処理ルーチン R T 6 (図 2 1 ) を終了し、 これにより リー ド ラ ィ トアクセス処理ルーチン R T 4に戻る。
ところで、 ガーデンファイ ルシステム (G F S) 処理ルーチン R T 6 (図 2 1 ) のステップ S P 6 1 において否定結果が得られることによりディスクに対する アクセスが初めてではない状態にあると判断したとき、 C P U 5はメディァマネ ージャ生成ステップをジャンプして、 ステップ S P 6 3から上述のリ一ド Zライ トァクセス処理ルーチン R T 4 (図 1 8 ) に戻り、 そのステップ S P 4 3からス ト レージマネージャ処理ルーチン R T 2 (図 1 6 ) に戻る。
以上の場合は、 ガーデンファイ ルシステム (G F S) をス ト レージ 7上に配置 したときの C P U 5の動作を述べたが、 ガーデンファイ ルシステム (G F S ) と 同時に、 他のファイルシステムをもス ト レ一ジ 7上に配置する場合には、 C P U 5は、 リ ー ド ライ トアクセス処理サブルーチン R T 4 (図 1 8 ) のステップ S P 4 4において否定結果が得られることにより、 アクセス要求されたフアイルが ガーデンフアイルシステム以外のフアイルシステムのファイ ルであると判断し、 このとき C P U 5は他ファイルシステム処理サブル一チン R T 1 4に入る。
このように他ファイルシステム処理サブルーチン R T 1 4に入ると、 C P U 5 は図 3 0に示すように、 ステップ S P 1 4 1 においてガーデンフアイ ルシステム (G F S ) パスマップテーブル T B L 1 の当該ファイルシステムのパス名に変更 を加えた後、 ステップ S P 1 4 2において当該フアイルシステムハン ドラを起動 した後、 ステップ S P 1 4 3に移ってメディァァクセス管理テーブル T B L 3 1 よりアクセス要求されたフアイルがオフライ ンに関するものであるか否かの判断 をする。
ここで肯定結果が得られると、 このことはオフライ ン処理の実行が必要な状態 にあることを意味し、 このとき C P U 5はオフライ ン処理サブルーチン R T 8に 入って図 2 3について上述したオフラィ ン処理 R T 8を実行した後、 上述のステ ップ S P 1 4 2に戻る。
これに対してステップ S P 1 4 3において否定結果が得られると、 このことは オンライ ン処理をする必要があることを意味し、 このとき C P U 5はステップ S P 1 4 4から上述のリー ド ライ トアクセス処理サブルーチン R T 4 (図 1 8 ) に戻る。
この状態になったとき、 C P U 5はリー ド/ライ トアクセス処理サブルーチン R T 4の処理を全て終了したことになり、 このとき C P U 5はステップ S P 4 3 を介して上述のス ト レ一ジマネ一ジャ処理 (図 1 6 ) に戻り、 以後 C P U 5 はス テツプ S P 2 1 において新たなアクセス要求が生ずるのを待ち受ける状態になる かく して C P U 5は図 1 〜図 1 2について上述した動作を、 図 1 3〜図 3 0 に ついて上述した処理手順によって実行できることになる。
( 7 ) 他の実施例
( 7— 1 ) 図 1 0は本発明の他の実施例を示すもので、 この場合情報記憶処理装 置 1 は、 サーバファイルシステム S F Sのノー ド bに、 追記型光ディスクメ モ リ でなるス ト レ一ジ上に構築したス ト レージ Aファイルシステム S A F Sのノ ー ド hをマウン 卜することによりス ト レージ Aファイ ル S A F S中のファイ ルをサー バフアイルシステム S F Sの一部として取り扱うようになされている。
さらにサーバフアイノレシステム S F Sのノ一ド c に、 光ディスクメモ リ でなる ス ト レージ上に構築したス ト レージ Bファイ ルシステム S B F Sのノ ー ド iをマ ゥン トすることによりス ト レ一ジ Bファイ ル S B F S中のファイルをサーバファ ィ ルシステム S F Sの一部として取り扱うようになされている。
図 1 0の構成の情報記憶処理装置 1 によれば、 光磁気ディス ク メ モ リ のス ト レ ージに加えて他の種類のス ト レージ、 すなわち追記型ディスクメ モ リ 、 光デイ ス クメ モ リ でなるス ト レージ上に構成されたファイ ルシステムをマウ ン トできるよ うにしたことにより、 異なる種類のス ト レージ上に構築された任意のフアイルシ ステ厶を、 ユーザはス ト レージを意識すること無く、 クライアン トファイ ルシス テム C F Sを通してアクセスできるようになる。 すなわちサーバファイ ルシステ ム S F S中の木構造のノ一ド b、 c、 d、 f に、 サーバフアイ ノレシステム S F S 及びク ラ イ アン ト ファイ ルシステム C F Sを含む他のフアイル管理構造を有する フアイルシステムのマウン トを、 ガーデンマネージャ G DMから呼ばれるス ト レ 一ジマネージャ S G Mが行なう。
かく して、 ス ト レージマネージャ S GMが、 結合するフアイルシステム構造を 理解するモジュールを有することにより、 多種複数ス ト レージ上に構築された多 種複数のファイ ルシステムをサーバファイ ルシステム S F S中にマウン トでき、 かつ、 サーバファイ ルシステム S F Sの拡張として結合されたファイ ルシステム を扱う ことができる。
例えば追記型光ディスクのようなス ト レージ上に、 ス ト レージ Aファイ ルシス テム S A F Sが構築されており、 サーバファイ ルシステム S F S中のノ ー ド bに 、 ス ト レ一ジ Aファイ ルシステム S A F S中のノ ー ド hをマウ ン トすることによ り、 ス ト 'レージ Aファイ ルシステム S A F S中のファイ ルが、 サーバファイ ルシ ステ厶 S F Sの一部として扱える。 同様に、 サーバファイ ルシステム S F S中の ノ ー ドじ に、 ス ト レージ Bファイ ルシステム S B F Sのノ ー ド iをマウ ン トする ことにより、 光ディスクのようなス ト レージ上に構築されたス ト レ一ジ Bフアイ ノレシステム S B F Sを、 サーバファイ ルシステム S F Sの拡張として扱える。 このように情報記憶処理装置 1 によれば、 多種複数ス ト レージ上に構築された 多種複数のフアイ ルシステムを統合でき、 さらにク ライ アン ト はス ト レージを意 識すること無く、 クライアン トファイ ルシステム C F Sを通して、 クライアン ト ファイ ルシステム C F Sの延長として、 サーバファイ ルシステム S F S、 ス ト レ ージ Aフアイノレシステム S A F S及びス ト レ一ジ Bファイ ルシステム S B F Sの ような、 多種複数のフアイ ルシステム中のフアイ ルをァクセスすることができる
( 7— 2 ) 図 1 1 は本発明の他の実施例を示すもので、 図 1 1 の場合の情報記憶 処理装置は、 クライアン ト ス ト レ一ジ部 C L Sからオフ ライ ンス ト レージ部 0 F Sまでを、 ス ト レージのアクセス速度で階層化したものである。 図としては、 図 9 と等価であるが、 ここでは各ス ト レージをキヤッシュとして扱っている点が特 徴である。 ク ライ アン ト に一番近い (ク ライ アン トに対してアクセス速度の一番 速いス ト レ一ジ) クライアン ト ス ト レ一ジ部 C L Sをプライマリキヤッシュ、 以 降アクセス速度の高い順に、 半導体メモリ 4を 2次キヤッシュ、 ドディスク メ モ リ 3を 3次キヤッシュ、 オー トチェンジャ 2の光磁気ディスク メ モ リ 2 Bを 4次キャッシュと呼ぶ。 これは、 マイ クロプロセッサの主記憶メモリ (半導体メ モリ) に対するプライマリキャッシュ、 2次キャッシュと等価な考え方を、 オフ ライ ンを含めたス ト レージに拡張したものである。
上述の構成においては、 階層化されたス ト レ一ジ上に、 サーバファイ ルシステ ム S F S、 オフ ラ イ ンファイ ルシステム O F F S l O F F S 2などのフアイ システムを構築したクライアン トにより、 ファイ ルシステム中のファイ ルがァク セスされるが、 図 1 1 の場合はフアイルのアク セス頻度に応じて、 各ガーデン G DNが唯一持つス ト レージマネージャ S GMによって自動的にファイ ルを、 ク ラ イ アン トス ト レージ C L Sや半導体メモ リ 4のような高速キヤッシュにステージ ングすることにより移動させ (最終的にはプライマリキャッシュにステージング ) 、 又はオー トチェンジャ 2のような低速キヤッシュにステ一ジングすることに より移動させ (最終的にはオフライ ンス ト レ一ジ O F S) 、 これにより、 頻繁に アク セスされるファイ ルのアク セスパフォーマ ンスを向上させると共に、 階層化 されたス ト レージを有効に利用し得る。
またこの情報記憶処理装置 1 においては、 クライアン トによってアクセスされ るサーバファイルシステム S F S中のファイルが、 図 9.のォー トチェンジャ 2の 光磁気ディスクメモ リ 2 Bに配置され、 フアイルのアクセス頻度により時間の経 過と共に、 キャッシュ間のステージングにより、 ファイルが移動するが、 ス ト レ 一ジマネ一ジャ S GMにより、 クライアン トによるフアイルのァクセス頻度、 現 在ステージングされているス ト レージ及びキヤッシュ上の寿命等の統計情報の収 集を行なう。
これによりこの情報記憶処理装置 1 のユーザは、 情報記憶処理装置 1 の稼働状 況及びアブリケーショ ンで使用される情報記憶処理装置 1 の資源の使用状況等を 分析及び解析できる。 さらにユーザによる統計情報の分析及び解析結果により、 アブリケーショ ン及び情報記憶処理装置 1 の資源の分配及び処理速度をチュー二 ングすることができる。
これに加えて、 この統計情報を各ガーデン G D Nが唯一持つガーデンマネ一ジ ャ G DMが情報記憶処理装置 1 内で管理し、 オンライ ン及びォフライ ンメディァ 管理を適用することにより、 クライアン トにより作られたオンライ ンス ト レ一ジ 上のアクセス頻度の非常に低い無駄なフアイルを、 オフライ ンファイ ルとして自 動的に整理し、 上述した手順により、 そのファイルの配置されているオンライ ン メディアをオフライ ンに排出することができる。
オフライ ンファイ ルとして整理する処理は、 図 1 2に示すようにォー トチェン ジャ 2において、 リ ム一パブルス ト レージとしての光磁気ディスクに対してス π ッ ト管理をすることにより実現できる。 図 1 2は図 9の各ガーデン G D N 1、 G DN 2、 G D N 3の記憶資源 Q A 3、 QB 3、 Q C 3における光磁気ディスクメ モリ 2 Bの容量 (カー ト リ ッジ 2 8 (図 8 ) 内のスロッ トの数に比例した容量を 持つ) を表している。
ガーデン G DN 1、 G D N 2及び G D N 3を持つクライアン ト A、 B及び Cは 、 現在スロッ ト ( S L 1、 S L 2 ) 、 ( S L 3〜S L 6 ) 及び ( S L 7〜 S L 9 ) をもち、 かつすベてのスロッ トにリ ムーバブル記憶メディァとして光磁気ディ スクが挿入された状態にある。 説明上、 光磁気ディスクメモリ 2 Bをもつォー ト チェンジャ 2の最大スロッ ト数は、 スロ ッ ト S L 1〜S L 8の 8ス Dッ トであり 、 現状では空きス nッ トが存在しないと仮定する。
上述した統計情報に基づいて、 オンライ ン容量の自動調整を適用することによ り、 クライアン ト C©オフライ ン記憶メディア、 すなわち光磁気ディスク D MC 2 のアクセス要求に対し、 サーバマネージャ S VMにより、 アクセス頻度の低いサ 一パファイルシステム S F Sが配置されているォンライ ンメディアを持つガーデ ンマネー^ャ G DMを呼びだし、 当該オンライ ンメディアをオフライ ンメディア に自動的に移行する。
例えば、' クライ ンアン ト Aのガーデン G D N 1 がスロッ ト S L 2にもっている オンライ ン記憶メディァとしての光磁気ディスクをオフライ ン記憶メディァ DM0 として外部に移行する。 これにより、 クライアン ト Cの持つガーデン G DN 3 に、 オフライ ン記憶メディァ DM042をォンライ ンに移行することができ、 スロッ ト S L 9のオンライ ン記憶メディアとして機能させることができる。 この時点で ク ライアン ト Aのガーデン G DN 1 は 1 つのスロ ッ ト S L 1 のみを有し、 ク ライ アン ト Cのガーデン G D N 3は 3つのスロッ ト S L 7、 S L 8、 S L 9をもつよ うに動的に変化する。
このように、 クライアン ト A、 Cのガーデン G D N 1、 G D N 3がもち得る光 磁気ディスクのォー トチェンジャ 2のス ッ ト数を、 クライアン 卜の持つフアイ ルのアクセス頻度とフアイルサイズに合わせて動的に変更することにより、 頻繁 にアクセスされるクライアン トのファイ ルをオンライ ンに留めることができる。 またこの実施例の場合、 クライアン ト A、 Cのガーデン G DN 1、 G DN 3が 有する光磁気ディスクのオー トチェンジャ 2のスロッ トを、 動的に変更するが、 クライアン ト Bのガーデン G D N 2が有するス ッ トに対しては、 これを適用せ ずに、 ユーザの指定によって、 クライアン ト Bのガーデン G DN 2が占有使用で きるスロ ッ トとして割り当てる。 例えば、 ク ライ アン ト Bのガーデン G D N 2のスロ ッ ト S L 3 、 S L 4には、 リ厶ーバブル記憶メディアとしての光磁気ディスクが揷入されている状態である が、 スロ ッ ト S L 5 、 S L 6にはリ ムーバブル記憶メディ アが揷入されていない 空きスロ ッ トの状態となっている。 このような状態においても、 他のクライアン ト A、 Cのガーデン G D N 1 、 G D N 3 に、 スロッ ト S L 5 、 S L 6が割り付け られることなく 、 ク ライアン ト Bのガーデン G D N 2がスロ ッ ト S L 5 、 S L 6 を占有する。 これによりク ライ アン ト Bは、 ファイルのアクセス頻度に関わらず 、 必要に応じてスロッ ト S L 5 、 S L 6を排他的に使用することができる。
( 7 - 3 ) 上述の実施例においては、 ス ト レージとして半導体メモリ 4 ド ディスクメモリ 3及び着脱装置 2 Aをもつ光磁気ディスクメモ リ 2 Bをアクセス 速度及びス ト レージ容量を階層化条件として階層化した情報記憶処理装置 1 につ いて述べたが、 ス ト レ一ジ及び階層化条件としてはこれに限らず、 1度だけ書き 込み可能で^数回読めるライ トワンス型光ディスク、 読み出し専用の光ディスク 、 順次ァクセスのテープス ト リーマ等のス ト レージを適用すると共に、 適用した ス ト レージのもつ特徴や特性を条件として階層化するようにしても良い。
( 8 ) 実施例の効果
以上の構成によれば、 オンライ ンでアクセスできないオフライ ンス ト レ一ジを 含めたス ト レージ階層をもつ装置構成、 並びにソフ トウェアで実現されるオフラ ィ ンを含めたス ト レージ及びフアイルの管理体系を構築して、 オフライ ンの記憶 メディアも含めてス ト レージとして提供することができることにより、 ユーザに 対する不公平さを解消し得ると共に、 ユーザの使い勝手を向上して実用上制限な く記憶容量を拡大できるような情報記憶処理装置を実現できる。
また上述の構成によれば、 光磁気ディスクのオー トチェンジャ 2に対してヰャ ッシュとして ドディスク 6を配置することにより、 頻繁に使われるフアイ ル は ドディ スク 6 に自動的にステージングされ、 ドディスク 6のパフォー マンスでファイ ルを読み書きできる。 またオフライ ンメディ アを含めたファイ ル メディァ管理により、 オフライ ン上のリム一バブルメディァ上のフアイルをあた かもサーバ上のォンライ ンフアイルのよう に扱える。
また上述の構成によれば、 ク ライアン トがオンライ ン上に存在しないフアイ ル をアクセスした時点で、 フアイルが存在するオフライ ンメディァの揷入をシステ ムがクライアン トに通知することができる。 さらに新規リムーバブルメディァの 揷入時に、 メディァに電子ラベルでなるメディァ情報を自動的に書き込むのと同 時に、 視覚的に識別可能なラベルを貼ることにより、 ユーザは一段と容易かつ確 実にオフライ ンメディ アを管理し得ると共に、 オンライ ンへ移行できる。
また上述の構成によれば、 アクセス頻度の少ないフアイルをオフライ ンへ自動 的に吐き出すことにより、 オンライ ンス ト レージ容量を 3〜 1 0倍に増加するこ とができる。 併せてクライアン トの持つ無駄なフアイルを自動的に整理できる。 またオフライ ンへ自動的に吐き出されたオフライ ンメディア中のディ レク ト リ は オンライ ン上で仮想メディァと して管理され、 ォンデマン ドでオンライ ンに移行 することが可能となる。 またオフライ ンメディアを含めたファイ ルメディァ管理 及びォンライ ンス ト レージ容量の効率的な使用管理によって、 実質的な無限大容 量ファイ ルを実現することができる。
さらに上述の構成によれば、 多種複数ス ト レージの組み込みが容易であると同 時に、''各ス ト レ一ジが固有で持つフアイルシステムを、 内部の固有のフアイルシ ステム中にマウ ン トできる。 これによりク ライ アン トが各ス ト レージ固有に持つ 多種なファイ ルシステムを、 内部に固有に持つフアイルシステムと してアクセス することができる。
さらにまた上述の構成によれば、 ク ライ アン トのフアイルのアクセス頻度、 現 在の格納場所、 キャッシュ上の寿命等の統計情報の収集を行なう ことにより、 統 計情報によって、 ユーザはサーバの稼働状況及びアブリケーショ ンで扱うサーバ リ ソ ースの使用状況を分析、 解析できる。 また分析、 解析結果によってアプリケ ーシヨ ン及びサーバのパフォーマンスをチューニングできる。
さらに上述の構成によれば、 ファイ ルのアク セス頻度とサイズに合わせて、 各 ク ライアン トに割り当てる光磁気ディスクのォー トチェンジャのス口 ッ ト数をシ ステムが自動的に確保したり、 開放するようにしたことにより、 各クライアン ト のオンライ ン容量を自動調整し、 頻繁にアクセスされるク ライ アン トのファイ ル をオンライ ンに留めることができる。 またクライアン トによってス ッ トをロッ ク して占有使用できるようにしたことにより、 クライアン トはファイ ルのァクセ ス頻度に関わらず、 特定のアプリケーショ ンで排他的に使用できる。 またデータ ベース等の同一アプリケーションを共有する他クライ アン トと共有して使用もで きる。 産業上の利用の可能性
本発明による情報記憶処理装置は、 大容量の記憶装置を必要とする種々のクラ イアン トが利用できるもので、 電子出版データ、 証券データの蓄積や、 カタログ 出版データの蓄積などに利用できる。
また本発明による情報記憶処理装置は、 文書類のイメ ージ処理、 例えば公官庁 の文書の謄本の保存や、 特許に関する図面の依存などに利用できる。
さらに本発明による情報記憶処理装置はゲームソ フ トの作成業務などに利用で きる。

Claims

請 求 の 範 囲
1 . データのアクセスが比較的速い第 1 の記憶媒体に対してデータのアクセス を行う第 1 の記憶手段と、
データのアクセスが比較的遅い第 2の記憶媒体に対してデータのアクセスを 行う第 2の記憶手段と、
上記第 1 の記憶媒体の記憶領域及び上記第 2の記憶媒体の記憶領域をそれぞ れ複数の領域に分割し、 分割された上記第 1 の記憶媒体の記憶領域の一部と上記 第 2の記憶媒体の記憶領域の一部とをある制御ライ ンからのコマン ドに対して使 用し、 分割された上記第 1 の記憶手段の記憶領域の他の部分と上記第 2の記憶手 段の記憶領域の他の部分とを他の制御ライ ンからのコマ ン ドに対して使用するよ う、 上記第 1及び第 2の記憶手段を制御する制御手段と
を具えることを特徴とする情報記憶処理装置。
2 . 上記制御手段は、 上記第 1 の制御ライ ンからのコマンドに基づく上記第 1及 び第 2の記憶媒体の使用状況と、 上記第 2の制御ライ ンからのコマ ンドに基づく 上記第 1及び第 2の記憶媒体の使用状況とに応じて、 上記第 1 の制御ライ ンから のコマ ン ドに基づいて使用される上記第 1 の記憶媒体の記憶領域と、 上記第 2の 制御ライ ンからのコマン ドに基づいて使用される上記第 2の記憶媒体の記憶領域 とを変化させる
ことを特徴とする請求の範囲第 1項に記載の情報記憶処理装置。
3 . 上記第 2の記憶媒体を上記記憶手段に対して着脱する着脱手段と、
上記第 2の記憶媒体の識別情報を保持する記憶媒体情報保持手段とをさらに 有し、
上記制御手段は、 上記第 2の記憶媒体を上記記憶手段から排出する際に、 上 記第 2の記憶媒体の識別情報を上記記憶媒体情報保持手段に保持させる
ことを特徴とする請求の範囲第 1項に記載の情報記憶処理装置。
4 . 上記着脱手段によって上記第 2の記憶媒体を排出する際に、 上記第 2の記憶 媒体に対し、 上記識別情報を視覚的に判断可能とする情報を付加する情報付加手 段をさらに有する
ことを特徴とする請求の範囲第 3項に記載の情報記憶処理装置。
5 . 上記着脱手段は、 上記第 2の記憶媒体を複数個着脱自在に収納する収納部を 有する
ことを特徴とする請求の範囲第 3項に記載の情報記憶処理装置。
6 . 上記複数の収納部のそれぞれに対して、 収納された上記第 2の記憶媒体のァ クセス情報を記憶するメディァアクセス管理情報記憶手段をさ らに有する
ことを特徴とする請求の範囲第 5項に記載の情報記憶処理装置。
7 . 上記制御手段は、 上記第 2の記憶媒体のアクセス情報に応じて選択した上記 第 2の記憶媒体を、 上記着脱手段によって、 上記第 2の記憶手段から自動的に排 出させるようにした
ことを特徴とする請求の範囲第 5項に記載の情報記憶処理装置。
8 . 上記メディアアクセス管理情報記憶手段は、 上記複数の収納部のそれぞれに 対して、 上記第 2の記憶媒体の収納の有無及び収納された上記第 2の記憶媒体の 識別番号、 及び収納された上記第 2の記憶媒体のアクセス情報を記憶している ことを特徴とする請求の範囲第 6項に記載の情報記憶処理装置。
9 . 上記制御手段は、 上記メディ アアクセス管理情報記憶手段の情報に基づいて、 アクセス要求があった第 2の記憶媒体が、 上記複数の収納部のいずれにも収納さ れていなく、 且つ、 上記複数の収納部の全てに上記第 2の記憶媒体が収納されて いる場合に、 上記アクセス情報に基づいて決定した第 2の記憶媒体を上記着脱手 段によって上記収納部から排出させる
ことを特徵とする請求の範囲第 8項に記載の情報記憶処理装置。
10. 上記メディ アアクセス管理情報記憶手段は、 上記各収納部に収納された第 2 の記憶媒体を制御する制御ライ ンを示すガーデン情報を記憶しており、
上記制御手段は、 アクセス要求を行った制御ライ ンと一致する制御ライ ンを 示すガーデン情報が記憶された第 2の記憶媒体の有無を、 上記メディァアクセス 情報記憶手段に基づいて検出し、 上記ガーデン番号が一致する第 2の記憶媒体に 対してデータのアクセスを行わせる
ことを特徴とする請求の範囲第 9項に記載の情報記憶処理装置。
11. 上記制御手段は、 アクセス要求を行った制御ライ ンと一致する制御ライ ンを 示すガーデン情報が記憶された第 2の記憶媒体が無かった場合に、
上記アクセス情報に基づいて決定された収納部に収納された第 2の記憶媒体 を上記排出手段によって排出させる
ことを特徴とする請求の範囲第 1 0項に記載の情報記憶処理装置。
12. 上記制御手段は、 上記第 2の記憶媒体のアクセス頻度に応じて、 上記第 2の 記憶媒体を、
上記着脱手段によって、 上記第 2の記憶手段から自動的に排出させるように した
ことを特徴とする請求の範囲第 5項に記載の情報記憶処理装置。
13. 上記制御手段は、 最も最近アクセスされていない第 2の記憶媒体を、 上記着 脱手段によって、 上記第 2の記憶手段から自動的に排出させるようにした
ことを特徴とする請求の範囲第 5項に記載の情報記憶処理装置。
14. 上記制御手段は、
上記第 1 の記憶手段と、 上記第 2の記憶手段に記憶されたデータを、 そのデ ータのアクセス状況に応じて上記第 1 の記憶手段と上記第 2の記憶手段とで互い に移行させる '
ことを特徴とする請求の範囲第 1項に記載の情報記憶処理装置。
15. 上記制御手段は、 上記コマン ドが上記第 2の記憶媒体へのデータの記憶コマ ン ドである際に、 一旦上記第 1 の記憶媒体にそのデータを記憶させるとともに、 その状態を表すキヤッシュ情報を保持し、 上記着脱手段によって上記第 2の記憶 媒体が排出されるのに先立って、 上記第 1 の記憶媒体に記憶された上記データを 上記第 2の記憶媒体に記憶させる
ことを特徵とする請求の範囲第 4項に記載の情報記憶処理装置。
16. 上記アクセス状況記憶手段は、 上記複数の収納部に収納された上記第 2の記 憶媒体の上記排出手段による排出の可否を示す排出データを記憶している
ことを特徴とする請求の範囲第 6項に記載の情報記憶処理装置。
17. データのアクセスが比較的速い第 1 の記憶媒体に対してデータのアクセスを 行う第 1 の記憶手段と、
データのアクセスが比較的遅い着脱可能な第 2の記憶媒体に対してデータの アクセスを行う第 2の記憶手段と、
上記第 2の記憶媒体を上記記憶手段に対して着脱する着脱手段と、 上記第 1 、 第 2の記憶手段及び上記着脱手段とを制御する制御手段と、 上記第 2の記憶媒体を上記記憶手段から排出する際に、 上記第 2の記憶媒体 の識別情報を保持する記憶媒体情報保持手段
とを具えることを特徴とする情報記憶処理装置。
18. 上記着脱手段によって上記記憶媒体を排出する際に、 上記記憶媒体に対し上 記記憶媒体に記憶されている内容を視覚的に判断可能とする情報を付加する情報 付加手段をさらに有する
ことを特徴とする請求の範囲第 1 7項に記載の情報記憶処理装置。
19. 上記着脱手段は、 上記第 2の記憶媒体を複数個着脱自在に収納する収納部を 有する
ことを特徴とする請求の範囲第 1 7項に記載の情報記憶処理装置。
20. 上記複数の収納部のそれぞれに対して、 収納された上記第 2の記憶媒体のァ クセス情報を記憶するメディァアクセス管理情報記憶手段をさらに有する
ことを特徴とする請求の範囲第 1 9項に記載の情報記憶処理装置。
21. 上記制御手段は、 上記第 2の記憶媒体のアクセス情報に応じて選択した上記 第 2の記憶媒体を、 上記着脱手段によって、 上記第 2の記憶手段から自動的に排 出させるようにした
ことを特徴とする請求の範囲第 1 9項に記載の情報記憶処理装置。
22. 上記メディアアクセス管理情報記憶手段は、 上記複数の収納部のそれぞれに 対して、 上記第 2の記憶媒体の収納の有無及び収納された上記第 2の記憶媒体の 識別番号、 及び収納された上記第 2の記憶媒体のアク セス情報を記憶している ことを特徴とする請求の範囲第 2 1項に記載の情報記憶処理装置。
23. 上記制御手段は、 上記メディアアク セス管理情報記憶手段の情報に基づいて- アクセス要求があった第 2の記憶媒体が、 上記複数の収納部のいずれにも収納さ れていなく、 且つ上記複数の収納部の全てに上記第 2の記憶媒体が収納されてい る場合に、 上記アクセス情報に基づいて決定した第 2の記憶媒体を上記着脱手段 によって上記収納部から排出させる
ことを特徴とする請求の範囲第 2 2項に記載の情報記憶処理装置。
24. 複数のパスマップ情報を記憶する記憶手段と、
記憶媒体をアク セスするアク セス手段と、
コマ ンドに基づいて、 上記記憶手段及び上記アクセス手段を制御する制御手 段を有し、
上記パスマップ情報は、
フアイ ルシステムの種類を示すフアイ ルシステ'ム情報と、
上記フアイ ルシステム情報に関する複数のェ ン ト リ として記憶され、 上記フ アイ ルシステム情報で示されるファイ ルシステムの元でアク セスされるファイ ル、 ディ レク ト リ、 及び他のフアイルシステムへの切換ボイ ン トであることを示すマ ゥ ン トポイ ン ト とを識別するファイ ルタイプ情報と、
上記フアイルタィプ情報が上記マウン トボイ ン トである際に、 上記他のファ ィ ルシステムに関するパスマップ情報の記憶位置を示すポイ ンタ情報とを含み、 上記制御手段は、 第 1 めフアイルシステム情報に基づいて入力されたコマン ドに基づいて第 1 のファイ ルシステムで動作して、 上記コマン ドによってァクセ ス要求のあったフアイルを上記パスマップ情報から検索し、
上記マウン トポイ ン トが含まれる際に、 上記ボイ ンタ情報に基づいて他のパ スマップ情報を読み出し、 読み出した他のパスマツプ情報に含まれるファイ ルシ ステム情報で示されるフアイ ルンステムの元で、 ァク セス要求のあったファイ ル をァクセスさせる
ことを特徴とする情報記憶処理装置。
PCT/JP1995/000810 1994-04-25 1995-04-25 Controleur d'acces memoire WO1995029444A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US08/557,124 US5784646A (en) 1994-04-25 1995-04-25 Hierarchical data storage processing apparatus for partitioning resource across the storage hierarchy
EP95916045A EP0706129A4 (en) 1994-04-25 1995-04-25 INFORMATION STORAGE PROCESSOR
JP52752995A JP3796551B2 (ja) 1994-04-25 1995-04-25 情報記憶処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP11052894 1994-04-25
JP6/110528 1994-04-25

Publications (1)

Publication Number Publication Date
WO1995029444A1 true WO1995029444A1 (fr) 1995-11-02

Family

ID=14538098

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1995/000810 WO1995029444A1 (fr) 1994-04-25 1995-04-25 Controleur d'acces memoire

Country Status (6)

Country Link
US (2) US5784646A (ja)
EP (1) EP0706129A4 (ja)
JP (1) JP3796551B2 (ja)
KR (1) KR100380878B1 (ja)
CN (1) CN1093289C (ja)
WO (1) WO1995029444A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007110931A1 (ja) * 2006-03-28 2007-10-04 Fujitsu Limited 名前空間複製プログラム、名前空間複製装置、名前空間複製方法
CN102333123A (zh) * 2011-10-08 2012-01-25 北京星网锐捷网络技术有限公司 文件存储方法、设备、查找方法、设备和网络设备

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW344178B (en) * 1996-12-16 1998-11-01 Toshiba Co Ltd Information presentation device and method
US5960446A (en) * 1997-07-11 1999-09-28 International Business Machines Corporation Parallel file system and method with allocation map
US6366953B2 (en) * 1997-08-06 2002-04-02 Sony Corporation System and method for recording a compressed audio program distributed from an information center
JPH11110140A (ja) * 1997-10-03 1999-04-23 Matsushita Electric Ind Co Ltd データ記録装置および方法
US6205476B1 (en) * 1998-05-05 2001-03-20 International Business Machines Corporation Client—server system with central application management allowing an administrator to configure end user applications by executing them in the context of users and groups
US7165152B2 (en) * 1998-06-30 2007-01-16 Emc Corporation Method and apparatus for managing access to storage devices in a storage system with access control
WO2000004483A2 (en) 1998-07-15 2000-01-27 Imation Corp. Hierarchical data storage management
US6751604B2 (en) * 1999-01-06 2004-06-15 Hewlett-Packard Development Company, L.P. Method of displaying temporal and storage media relationships of file names protected on removable storage media
JP3601995B2 (ja) * 1999-03-01 2004-12-15 パイオニア株式会社 情報記録媒体のストッカー及びチェンジャー
US6324062B1 (en) 1999-04-02 2001-11-27 Unisys Corporation Modular packaging configuration and system and method of use for a computer system adapted for operating multiple operating systems in different partitions
JP4151197B2 (ja) * 1999-09-06 2008-09-17 ソニー株式会社 記録再生装置及び記録再生方法
US8024419B2 (en) * 2000-05-12 2011-09-20 Sony Corporation Method and system for remote access of personal music
US6829678B1 (en) * 2000-07-18 2004-12-07 International Business Machines Corporation System for determining the order and frequency in which space is allocated on individual storage devices
US6981005B1 (en) * 2000-08-24 2005-12-27 Microsoft Corporation Partial migration of an object to another storage location in a computer system
FR2816090B1 (fr) * 2000-10-26 2003-01-10 Schlumberger Systems & Service Dispositif de partage de fichiers dans un dispositif a circuit integre
JP4622101B2 (ja) * 2000-12-27 2011-02-02 ソニー株式会社 情報処理装置、情報処理装置の情報処理方法および情報処理システム
US8458754B2 (en) 2001-01-22 2013-06-04 Sony Computer Entertainment Inc. Method and system for providing instant start multimedia content
US6990667B2 (en) 2001-01-29 2006-01-24 Adaptec, Inc. Server-independent object positioning for load balancing drives and servers
US20020116283A1 (en) * 2001-02-20 2002-08-22 Masayuki Chatani System and method for transfer of disc ownership based on disc and user identification
US7228342B2 (en) 2001-02-20 2007-06-05 Sony Computer Entertainment America Inc. System for utilizing an incentive point system based on disc and user identification
US6901446B2 (en) * 2001-02-28 2005-05-31 Microsoft Corp. System and method for describing and automatically managing resources
US7315887B1 (en) * 2001-04-11 2008-01-01 Alcatel Lucent Facilitating integration of communications network equipment inventory management
US6950824B1 (en) * 2001-05-30 2005-09-27 Cryptek, Inc. Virtual data labeling and policy manager system and method
US6931411B1 (en) * 2001-05-30 2005-08-16 Cryptek, Inc. Virtual data labeling system and method
US7200609B2 (en) * 2001-07-19 2007-04-03 Emc Corporation Attribute based resource allocation
US6775745B1 (en) * 2001-09-07 2004-08-10 Roxio, Inc. Method and apparatus for hybrid data caching mechanism
US7136883B2 (en) * 2001-09-08 2006-11-14 Siemens Medial Solutions Health Services Corporation System for managing object storage and retrieval in partitioned storage media
JP4168626B2 (ja) * 2001-12-06 2008-10-22 株式会社日立製作所 記憶装置間のファイル移行方法
US7024427B2 (en) * 2001-12-19 2006-04-04 Emc Corporation Virtual file system
US20040083370A1 (en) * 2002-09-13 2004-04-29 Sun Microsystems, Inc., A Delaware Corporation Rights maintenance in a rights locker system for digital content access control
US7913312B2 (en) * 2002-09-13 2011-03-22 Oracle America, Inc. Embedded content requests in a rights locker system for digital content access control
US9489150B2 (en) 2003-08-14 2016-11-08 Dell International L.L.C. System and method for transferring data between different raid data storage types for current data and replay data
WO2005017737A2 (en) * 2003-08-14 2005-02-24 Compellent Technologies Virtual disk drive system and method
US20050086430A1 (en) * 2003-10-17 2005-04-21 International Business Machines Corporation Method, system, and program for designating a storage group preference order
US7814131B1 (en) * 2004-02-02 2010-10-12 Network Appliance, Inc. Aliasing of exported paths in a storage system
US7177883B2 (en) * 2004-07-15 2007-02-13 Hitachi, Ltd. Method and apparatus for hierarchical storage management based on data value and user interest
US7788299B2 (en) * 2004-11-03 2010-08-31 Spectra Logic Corporation File formatting on a non-tape media operable with a streaming protocol
JP2006302052A (ja) * 2005-04-22 2006-11-02 Hitachi Ltd ストレージシステムおよびデジタル放送システム
US20070083482A1 (en) * 2005-10-08 2007-04-12 Unmesh Rathi Multiple quality of service file system
JP2007148982A (ja) * 2005-11-30 2007-06-14 Hitachi Ltd ストレージシステム及びその管理方法
KR100803598B1 (ko) * 2005-12-28 2008-02-19 삼성전자주식회사 화상 형성 장치에 연결된 외부 저장매체의 이미지 파일들을관리하는 방법 및 장치
US20070261045A1 (en) * 2006-05-05 2007-11-08 Dell Products L.P. Method and system of configuring a directory service for installing software applications
US8095576B2 (en) * 2006-11-06 2012-01-10 Panasonic Corporation Recording device
US20080147974A1 (en) * 2006-12-18 2008-06-19 Yahoo! Inc. Multi-level caching system
US8996409B2 (en) 2007-06-06 2015-03-31 Sony Computer Entertainment Inc. Management of online trading services using mediated communications
US9483405B2 (en) 2007-09-20 2016-11-01 Sony Interactive Entertainment Inc. Simplified run-time program translation for emulating complex processor pipelines
KR20090045980A (ko) * 2007-11-05 2009-05-11 엘지전자 주식회사 광디스크 드라이브 및 이를 이용한 광고 및 서비스 시스템
US7836030B2 (en) * 2007-11-13 2010-11-16 International Business Machines Corporation Data library optimization
US8447421B2 (en) * 2008-08-19 2013-05-21 Sony Computer Entertainment Inc. Traffic-based media selection
US8290604B2 (en) * 2008-08-19 2012-10-16 Sony Computer Entertainment America Llc Audience-condition based media selection
US10325266B2 (en) 2009-05-28 2019-06-18 Sony Interactive Entertainment America Llc Rewarding classes of purchasers
US20110016182A1 (en) 2009-07-20 2011-01-20 Adam Harris Managing Gifts of Digital Media
US8874628B1 (en) * 2009-10-15 2014-10-28 Symantec Corporation Systems and methods for projecting hierarchical storage management functions
US8433759B2 (en) 2010-05-24 2013-04-30 Sony Computer Entertainment America Llc Direction-conscious information sharing
US8504487B2 (en) 2010-09-21 2013-08-06 Sony Computer Entertainment America Llc Evolution of a user interface based on learned idiosyncrasies and collected data of a user
US8484219B2 (en) 2010-09-21 2013-07-09 Sony Computer Entertainment America Llc Developing a knowledge base associated with a user that facilitates evolution of an intelligent user interface
US8762668B2 (en) * 2010-11-18 2014-06-24 Hitachi, Ltd. Multipath switching over multiple storage systems
US9105178B2 (en) 2012-12-03 2015-08-11 Sony Computer Entertainment Inc. Remote dynamic configuration of telemetry reporting through regular expressions
US10891370B2 (en) * 2016-11-23 2021-01-12 Blackberry Limited Path-based access control for message-based operating systems
US10423334B2 (en) 2017-01-03 2019-09-24 International Business Machines Corporation Predetermined placement for tape cartridges in an automated data storage library
WO2020180045A1 (en) * 2019-03-07 2020-09-10 Samsung Electronics Co., Ltd. Electronic device and method for utilizing memory space thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03171238A (ja) * 1989-08-29 1991-07-24 Microsoft Corp 設置可能なファイルシステムにおいてダイナミックボリュームトラッキングを行う方法及び装置
JPH0659957A (ja) * 1991-06-27 1994-03-04 Digital Equip Corp <Dec> データを記憶するファイル・システム及び記憶空間を割り当てる方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4207609A (en) * 1978-05-08 1980-06-10 International Business Machines Corporation Method and means for path independent device reservation and reconnection in a multi-CPU and shared device access system
US4396984A (en) * 1981-03-06 1983-08-02 International Business Machines Corporation Peripheral systems employing multipathing, path and access grouping
US4455605A (en) * 1981-07-23 1984-06-19 International Business Machines Corporation Method for establishing variable path group associations and affiliations between "non-static" MP systems and shared devices
US4974156A (en) * 1988-05-05 1990-11-27 International Business Machines Multi-level peripheral data storage hierarchy with independent access to all levels of the hierarchy
US4987533A (en) * 1988-05-05 1991-01-22 International Business Machines Corporation Method of managing data in a data storage hierarchy and a data storage hierarchy therefor with removal of the least recently mounted medium
JPH0215482A (ja) * 1988-07-04 1990-01-19 Naotake Asano フロツピーデイスクラベル印字装置
EP0389151A3 (en) * 1989-03-22 1992-06-03 International Business Machines Corporation System and method for partitioned cache memory management
US5214768A (en) * 1989-11-01 1993-05-25 E-Systems, Inc. Mass data storage library
US5239650A (en) * 1990-05-21 1993-08-24 International Business Machines Corporation Preemptive demount in an automated storage library
US5121483A (en) * 1990-05-21 1992-06-09 International Business Machines Corporation Virtual drives in an automated storage library
US5050229A (en) * 1990-06-05 1991-09-17 Eastman Kodak Company Method and apparatus for thinning alphanumeric characters for optical character recognition
US5459848A (en) * 1991-03-07 1995-10-17 Fujitsu Limited Library apparatus with access frequency based addressing
JPH06309200A (ja) * 1991-04-10 1994-11-04 Internatl Business Mach Corp <Ibm> ボリュームからオブジェクトを読取る方法、並びに階層式記憶システム及び情報処理システム
JPH0540582A (ja) * 1991-08-07 1993-02-19 Shikoku Nippon Denki Software Kk フアイル処理装置
JPH05189286A (ja) * 1992-01-09 1993-07-30 Hitachi Ltd ディスクキャッシュ制御システムおよび制御方法
JPH05274200A (ja) * 1992-03-25 1993-10-22 Fujitsu Ltd パス名検索におけるネームキャッシュ機構のパージ制御方法
US5418971A (en) * 1992-04-20 1995-05-23 International Business Machines Corporation System and method for ordering commands in an automatic volume placement library
JP3543974B2 (ja) * 1992-05-29 2004-07-21 キヤノン株式会社 情報処理装置および情報処理方法
JPH06110809A (ja) * 1992-09-30 1994-04-22 Toshiba Corp ネットワークファイルシステムのマウント方式
US5572694A (en) * 1992-11-25 1996-11-05 Fujitsu Limited Virtual system for detecting access paths belonging to same group from plurality of access paths to reach device designated by command with reference to table
US5479581A (en) * 1993-12-30 1995-12-26 Storage Technology Corporation Multiple library media exchange system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03171238A (ja) * 1989-08-29 1991-07-24 Microsoft Corp 設置可能なファイルシステムにおいてダイナミックボリュームトラッキングを行う方法及び装置
JPH0659957A (ja) * 1991-06-27 1994-03-04 Digital Equip Corp <Dec> データを記憶するファイル・システム及び記憶空間を割り当てる方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0706129A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007110931A1 (ja) * 2006-03-28 2007-10-04 Fujitsu Limited 名前空間複製プログラム、名前空間複製装置、名前空間複製方法
JP4699516B2 (ja) * 2006-03-28 2011-06-15 富士通株式会社 名前空間複製プログラム、名前空間複製装置、名前空間複製方法
CN102333123A (zh) * 2011-10-08 2012-01-25 北京星网锐捷网络技术有限公司 文件存储方法、设备、查找方法、设备和网络设备

Also Published As

Publication number Publication date
US6085262A (en) 2000-07-04
KR100380878B1 (ko) 2003-08-02
US5784646A (en) 1998-07-21
KR960703480A (ko) 1996-08-17
EP0706129A1 (en) 1996-04-10
EP0706129A4 (en) 1999-09-22
CN1127560A (zh) 1996-07-24
CN1093289C (zh) 2002-10-23
JP3796551B2 (ja) 2006-07-12

Similar Documents

Publication Publication Date Title
WO1995029444A1 (fr) Controleur d&#39;acces memoire
JP4771615B2 (ja) 仮想記憶システム
US5805864A (en) Virtual integrated cartridge loader for virtual tape storage system
EP1384135B1 (en) Logical view and access to physical storage in modular data and storage management system
US7246207B2 (en) System and method for dynamically performing storage operations in a computer network
JP3630408B2 (ja) データ記憶装置ライブラリ
US7206905B2 (en) Storage system and method of configuring the storage system
US8572330B2 (en) Systems and methods for granular resource management in a storage network
US7409509B2 (en) Dynamic storage device pooling in a computer system
US6604165B1 (en) Library control device for logically dividing and controlling library device and method thereof
US20020091828A1 (en) Computer system and a method of assigning a storage device to a computer
WO2000002125A2 (en) Method for selectively storing redundant copies of virtual volume data on physical data storage cartridges
WO2005010757A1 (ja) ファイル管理方法及び情報処理装置
US5940849A (en) Information memory apparatus and library apparatus using a single magnetic tape shared with a plurality of tasks
US6260006B1 (en) System and method for multi-volume tape library
US5787446A (en) Sub-volume with floating storage space
AU673021B2 (en) Management apparatus for volume-medium correspondence information for use in dual file system
JPH0667811A (ja) 多重化ディスク制御装置
JPH07271524A (ja) データ格納装置
JPH0934791A (ja) 情報記憶装置
JPH08110839A (ja) 集合型データ処理装置
JPH09265416A (ja) 階層的情報管理方法及びその実施装置
JPH10222930A (ja) 光学的記憶システム及びコピー処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JPH10124388A (ja) 記憶制御装置
JPH09330263A (ja) データアーカイブシステム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 95190342.X

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

WWE Wipo information: entry into national phase

Ref document number: 1995916045

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 08557124

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1019950705925

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1995916045

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1995916045

Country of ref document: EP