WO1990010898A1 - Supporting method and system for process control - Google Patents

Supporting method and system for process control Download PDF

Info

Publication number
WO1990010898A1
WO1990010898A1 PCT/JP1990/000322 JP9000322W WO9010898A1 WO 1990010898 A1 WO1990010898 A1 WO 1990010898A1 JP 9000322 W JP9000322 W JP 9000322W WO 9010898 A1 WO9010898 A1 WO 9010898A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
layer
neural network
model
value
Prior art date
Application number
PCT/JP1990/000322
Other languages
English (en)
French (fr)
Inventor
Kenji Baba
Ichiro Enbutsu
Shoji Watanabe
Hayao Yahagi
Fumio Maruhashi
Harumi Matsuzaki
Hiroshi Matsumoto
Shunsuke Nogita
Mikio Yoda
Naoki Hara
Original Assignee
Hitachi, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi, Ltd. filed Critical Hitachi, Ltd.
Priority to KR1019900702426A priority Critical patent/KR940005029B1/ko
Priority to EP90904434A priority patent/EP0432267B1/en
Priority to DE69032557T priority patent/DE69032557T2/de
Priority to US07/613,718 priority patent/US5774633A/en
Publication of WO1990010898A1 publication Critical patent/WO1990010898A1/ja
Priority to US08/220,546 priority patent/US5943662A/en

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F1/00Treatment of water, waste water, or sewage
    • C02F1/008Control or steering systems not provided for elsewhere in subclass C02F
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F1/00Treatment of water, waste water, or sewage
    • C02F1/52Treatment of water, waste water, or sewage by flocculation or precipitation of suspended impurities
    • C02F1/5236Treatment of water, waste water, or sewage by flocculation or precipitation of suspended impurities using inorganic agents
    • C02F1/5245Treatment of water, waste water, or sewage by flocculation or precipitation of suspended impurities using inorganic agents using basic salts, e.g. of aluminium and iron
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F1/00Treatment of water, waste water, or sewage
    • C02F1/72Treatment of water, waste water, or sewage by oxidation
    • C02F1/76Treatment of water, waste water, or sewage by oxidation with halogens or compounds of halogens
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/0285Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks and fuzzy logic
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F1/00Treatment of water, waste water, or sewage
    • C02F1/66Treatment of water, waste water, or sewage by neutralisation; pH adjustment
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F1/00Treatment of water, waste water, or sewage
    • C02F2001/007Processes including a sedimentation step
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/02Temperature
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/05Conductivity or salinity
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/06Controlling or monitoring parameters in water treatment pH
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/07Alkalinity
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/11Turbidity
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/29Chlorine compounds
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2209/00Controlling or monitoring parameters in water treatment
    • C02F2209/42Liquid level
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F2303/00Specific treatment goals
    • C02F2303/04Disinfection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02WCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO WASTEWATER TREATMENT OR WASTE MANAGEMENT
    • Y02W10/00Technologies for wastewater treatment
    • Y02W10/30Wastewater or sewage treatment systems using renewable energies
    • Y02W10/37Wastewater or sewage treatment systems using renewable energies using solar energy
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S706/00Data processing: artificial intelligence
    • Y10S706/902Application using ai with detail of the ai system
    • Y10S706/903Control
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S706/00Data processing: artificial intelligence
    • Y10S706/902Application using ai with detail of the ai system
    • Y10S706/903Control
    • Y10S706/906Process plant

Definitions

  • the present invention relates to a method and a system for supporting the driving of a whole process dealing with a phenomenon that changes with time.
  • the purpose of the present invention is to make effective use of past histories that have not been used effectively so far, and to support driving at regular, irregular, or abnormal times.
  • Another object of the present invention is to provide a method for automatically extracting knowledge such as a causal relationship between input and output variables from a learned neural network model. Disclosure of the invention
  • a process driving support method is a process driving support method for obtaining a control variable value of a control target in which a control target is set to a target state in accordance with a plurality of input variable values that change with time.
  • a hierarchical neural network model consisting of an input layer, at least one intermediate layer, and an output layer, a representative of multiple input variable values at different points in time in the past operation history information of the process
  • the neural network model is trained with the control variable value corresponding to the representative pattern as a teacher signal, and the learned neural circuit model is unlearned as the input variable value. Is input to obtain the control variable value for the pattern.
  • the process driving support method is such that at least one controlled object is set to a target state according to a plurality of input variable values that change with time.
  • a process for determining a control variable value of the controlled object wherein the control method uses a neural network model having a hierarchical structure including an input layer, at least one intermediate layer, and an output layer.
  • the control method uses a neural network model having a hierarchical structure including an input layer, at least one intermediate layer, and an output layer.
  • an input variable value pattern at a certain time and an input variable value pattern at a certain time before the certain time are simultaneously inputted.
  • the current input variable value pattern and Input change at the point in time By simultaneously inputting numerical patterns, the current control variable value can be obtained.
  • the process operation assisting method is configured such that the controlled object enters a target state in response to a plurality of input variable values that change with time.
  • This is a method of supporting the process variable to obtain the control variable values of the input variable values at a certain point in time using a hierarchical neural network model consisting of an input layer, at least one intermediate layer, and an output layer. Two or more patterns out of the pattern, the input variable value pattern at a certain time before the certain point in time, and the pattern of the deviation of the input variable value at the time of rain are simultaneously input signals.
  • the control variable value at a certain point in time is used as a teacher signal, and the neural network model learns a plurality of input signals. By inputting the turns at the same time, the current It is obtained so as to obtain the control variable value of the point.
  • a causal relationship between each of the input variables and each of the control variables is extracted based on a result of learning of the neural circuit model, and the driving of the process is supported based on the causal relationship. I do.
  • the neural network model has, for example, at least one layer consisting of an input layer composed of a plurality of neuron element models and a plurality of neuron element models each receiving an output of each neuron element model of the input layer.
  • a hidden layer and at least one neuron receiving the output of each neuron of the final hidden layer And an output layer consisting of a neuron element model, wherein each input variable corresponds to each neuron element model of the input layer, and each control variable is assigned to each neuron element model of the output layer.
  • the learning is performed by controlling a weighting factor given to a connection between the respective neuron element models.
  • a coupling strength between each of the input variables and each control variable is obtained based on a result of learning of the neural circuit model, and a circuit structure of the neural circuit model is changed based on the magnitude of the coupling strength. You may do so.
  • the coupling strength between the specific one input variable and the specific one control variable is obtained from the neuron element model of the input layer corresponding to the one input variable via each neuron element model of the intermediate layer. It can be defined by the product sum of the weighting factors of each path leading to the neuron model of the output layer corresponding to the control variable.
  • the structure of the neural network model can be changed by deleting the connection between specific neuron element models or by changing the number of layers of the intermediate layer.
  • a neural network model that has learned the history information in the steady state and a neural network model that has learned the history information in the unsteady state are separately prepared. It is also possible to switch and use.
  • the weighting coefficients between pairs of neuron element models connected between different layers of the input layer, the intermediate layer, and the output layer are determined, and the learning is performed finite times.
  • the product of the weight coefficients of the paths is obtained.
  • a process driving assistance system is a process driving assistance system that obtains a control variable value of a controlled object that sets the controlled object in a target state according to a plurality of input variable values that change with time.
  • a neural network model having a hierarchical structure composed of an input layer, a middle layer, and an output layer, and using the past driving history information as an input signal and a teacher signal in the neural network model to execute a past driving operation.
  • Processing means for learning ⁇ input means for obtaining an input variable value to be input to the neural network model from the control object, knowledge extracting means for extracting knowledge from the learned neural circuit model, and knowledge extracting means
  • knowledge base for accumulating the acquired knowledge
  • an inference mechanism for obtaining process reversal support information from the knowledge accumulated in the knowledge base
  • guidance means for providing guidance on the control of the control object.
  • process includes various processes that deal with phenomena that change with time, and “operation” means operation, management, control, etc.
  • operation means operation, management, control, etc.
  • the concept is broad.
  • ⁇ driving support j refers to assisting the operation of a process with an operator in a narrow sense, but refers to directly controlling a process without an operator in a broad sense. Shall be included.
  • the present invention applies the learning function of the neural network model to (i) learning from driving history information of a mouth process, (mouth) acquiring knowledge of history information, and (c) automatically generating a model describing history information. Applicable.
  • the trainer learns only typical patterns that have been successfully driven, so that the neural network model has the same judgment ability as an experienced operator, and For any given input variable value pattern, appropriate support based on past results and precedents can be provided.
  • the ability of the neural circuit model can be gradually developed in real life. Therefore, in the end, regardless of each operator's experience, abilities, qualities, etc., it is homogeneous and optimal. Driving can be aimed at.
  • the optimal control variable value may be different between when the input variable value rises and when the input variable value falls.
  • the input variable value pattern at the time of learning not only the history information at one point in time, but also the past history information a certain time ago or the deviation information of the rainy person is used at the same time. This makes it possible to provide appropriate driving support according to the changing state of the process. Furthermore, by providing separate neural network models that have learned the history information at regular and abnormal times, etc., more effective driving support can be performed.
  • the past history information may contain knowledge such as causal relationships that the operator is not aware of.
  • the causal relationship between many input variables and control variables is not always obvious. Therefore, in the present invention, the relationship between the cause and the result is automatically extracted and acquired by focusing on the magnitude of the weighting factor of the neural network model that has already been learned or the connection state. I was able to do it.
  • the knowledge buried in the history information can be automatically or semi-automatically converted into a sequential database or a knowledge base.
  • semi-automatic means a dialog with the operator.
  • This knowledge base can also support the operation of various processes that deal with phenomena that change over time. Simple explanation of the drawing
  • FIG. 1 is a block diagram showing the configuration of an embodiment in which the present invention is applied to operation support of a water purification plant
  • Fig. 2 is an explanatory diagram of the flow of specific procedures in the embodiment
  • Fig. 3 is a neural network.
  • Schematic diagram showing a network Fig. 4 shows a schematic diagram showing a neuron element model
  • Fig. 5 shows a graph showing signal conversion in a neuron model
  • Fig. 6 is used for recall.
  • FIG. 7 is a schematic view showing a neural network
  • FIG. 7 is an explanatory view of another embodiment of the present invention
  • FIGS. 8 to 10 are neural nets each applying the present invention to coagulant injection.
  • FIGS. 8 to 10 are neural nets each applying the present invention to coagulant injection.
  • FIGS. 11 to 13 are schematic diagrams showing a configuration example of a workpiece
  • FIGS. 11 to 13 are explanatory diagrams of still another embodiment of the present invention
  • FIG. 14 is an explanatory diagram of another embodiment of the present invention
  • FIGS. Figures are explanatory views of still another embodiment of the present invention
  • Figs. 16 and 17 are explanatory views of another embodiment of the present invention
  • Figs. FIG. 19 is an explanatory view of another embodiment.
  • a representative pattern at a different time is represented by (1) a neural circuit model (neural processor). Learning, (2) assisting driving based on learning results, (3) acquiring knowledge and accumulating knowledge candidates from learning results, (4) validity diagnosis as knowledge of knowledge candidates, (5) knowledge And driving support based on inference.
  • a pattern is a multivariable past history or current pattern. More details on these later As described above, the term “multivariable” refers to all variables that change over time. Therefore, the present invention can be applied to various information processing processes or plants. Here, the case where it is used to support lotus rotation at a water treatment plant as an embodiment is described below with reference to Fig. 1.
  • FIG. 1 First, the configuration and operation of FIG. 1 will be described.
  • Fig. 1 raw water is led to landing well 9 from rivers and lakes (not shown).
  • Raw water is led from the landing well 9 to the rapid mixing pond 10, where the liquid coagulant (aluminum polychloride, aluminum sulfate, etc.) in the flocculant tank 11A is introduced. Is injected by the flocculant injection pump 12 A.
  • An alkaline agent such as calcium hydroxide or sodium carbonate, is injected from alkaline tank 11B by alkaline injection pump 12B to promote block formation. Is done.
  • the stirring blades 14 are stirred by the stirrer 13, and the suspended fine particles around O.
  • Olran in the raw water are turned into a 0.1 orifice block. This water is guided to the block formation pond 15 and grows into a block.
  • the block formation pond 15 is composed of a plurality of ponds 15A, 15B and 15C, and stirring ponds 17A, 17B and 17C are installed in each pond. They rotate slowly. By this stirring, the particles grow into a block having a particle size of about 1 ran.
  • the grown flocks settle in the sedimentation basin 16 and the supernatant is filtered in the filtration pond 17.
  • the backwash water is intermittent from the wash water tank 18 to the pump 19. It is sprayed to wash the floor.
  • the permeated water is temporarily stored in the water purification reservoir 20 and the distribution reservoir 21, and is transmitted to the customers by the pump 22 through the piping network 24.
  • Valves 23A, 23B and 23C are installed to control pressure and flow.
  • an appropriate amount of chlorine in chlorine container 25 is injected into landing well 9 and water purification tank 20 by chlorine injector 26.
  • a measuring instrument 5A In order to measure the quality of the raw water, a measuring instrument 5A will be installed at the landing well 9.
  • the measurement items are water temperature, turbidity, alkalinity, pH, electric conductivity, residual chlorine concentration, chlorine demand, water volume, water level, etc.
  • An imaging means 5B such as an underwater camera is installed in the block formation pond 15C, and a rapid mixing pond 10 or a block type pond 15 ⁇ , 1 is provided as necessary. 5 ⁇ and sedimentation basin 16.
  • a sedimentation basin 16 is equipped with a turbidity meter 5C.
  • the measurement items of the measuring device 5D of the filtration basin 17 are head loss, water level, turbidity, residual chlorine concentration, ⁇ , turbidity, flow rate, and the like.
  • the measurement items of measuring instruments 5 ⁇ and 5F in the water purification tank 20 and the distribution reservoir 21 are water level, turbidity, residual chlorine concentration, ⁇ ⁇ , turbidity, flow rate, water pressure, water temperature, etc. .
  • the measurement items of the measuring instrument 5G installed in the piping network 24 include turbidity, residual chlorine concentration, water content, flow rate, water pressure, and water temperature.
  • the data of the various measuring instruments described above are input to the computer system 80.
  • Measuring instrument 5 5, 5C, 5D, 5, Various data obtained at 5F and 5G are sampled at predetermined time intervals (one minute or one hour).
  • These signals 5 AS, 5 CS, 5 DS, 5 ES, 5 FS, and 5 GS are sent to the storage device 54 via the input port 56 A and the system bus 52.
  • the storage device 54 stores various types of processing data processed by the system processor (SP) 42.
  • SP system processor
  • the analog electric signal 5BS of the grayscale image of the hook obtained from the imaging means 5B is converted into a digital signal by the image processing device 40 and then subjected to image processing.
  • the monitor 50 outputs the processing status of the image processing device 40.
  • the functions of the image processing device 40 perform various processes proposed by the inventors (for example, Japanese Patent Application No. 61-82952), which will be briefly described below.
  • the grayscale image obtained by the imaging means 5B is binarized and converted into a binary image, and the area, volume, representative diameter, shape, and the like of each of the blocks are calculated from the binary image.
  • particle size distribution, number, statistical representative particle size of distribution, width of distribution (standard deviation, etc.), shape characteristics of block, amount of block formation, block brightness, background brightness Calculate features such as the density of the flocks. If necessary, comprehensively grasp the processing status using the values of measuring instruments 5A and 5C.
  • the system bus 52 has a system processor 42, an image processor 40, a storage device 54, and a neural processor.
  • a network (NP) 70, a knowledge base 60A, a knowledge candidate base 60B, and an inference mechanism 61 are connected to each other.
  • a keyboard 44 and a display 46 are connected to the system processor (SP) 42.
  • the input items from the keyboard 44 are (1) operating conditions of the image processing device 40, (2) calculation conditions of the neural processor 70, and (3) water quality information and image information by the operator. And the knowledge they have about.
  • a dedicated keyboard may be installed for setting the operating conditions of the image processing device 40.
  • the system processor 42 integrally controls these conditions (1), (2), and (3), and controls the operation of the inference mechanism 61 as necessary.
  • the processing results of the computer system 80 are passed through the output port 56B, and the coagulant injection pump 12A, the alcohol injection pump 12B, the stirrer 13, the stirring Controls paddles 17 A, 17 B, 17 C, pump 19, chlorinator 26, pump 22, norbs 23 A, 23 B, 23 C, etc.
  • the coagulant injection pump 12 ⁇ is used to control the coagulant injection
  • the alkaline agent injection pump 12 B is used to control the alkali agent injection
  • the stirrer 13 is used to control rapid stirring
  • the stirring paddles 17 A and 17 B are used.
  • Slow stirring control at 17 C backwash control at pump 19, pre- and post-chlorination control at chlorine injector 26, pumps 22 and norbs 23 A, 23 B, In 23 C, distribution flow control and distribution pressure control are used.
  • various controls related to the maintenance and management of the water treatment plant such as flow rate and water level control, will be executed.
  • control method is based on (I) a conventional control method that models the relationship between measurement information or the relationship between measurement information and output information (control information) based on the measurement information, and controls the output based on this model.
  • control information refers to an automatic operation that is performed without any interruption to the operator
  • assistant refers to operator guidance, and is mainly used for displays 46, etc. (Using voice depending on the situation) to inform the user of reference data and operation guidance, and to perform control only when the operator's consent is obtained.
  • the support of ( ⁇ ) is as follows: (1) Retrain the history of various measurement information by the neural processor 70, (2) Support driving based on the learned result, (3) Extraction of knowledge and knowledge candidates from the results, (4) validity diagnosis as knowledge of knowledge candidates, and (5) driving support based on knowledge and inference .
  • “knowledge” refers to certain rules that relate cause and effect, and knowledge is empirical. There is knowledge and scientific knowledge.
  • the “knowledge candidate” represents a pair of a certain event A and a certain event B (the event B occurs when the event A holds). Such pairs of events can occur by accident and are often not necessarily inevitable or empirical knowledge, but some can be considered knowledge. Therefore, it refers to an event that is not recognized as knowledge, but becomes knowledge if it occurs many times.
  • These knowledge or knowledge candidates are stored in the knowledge base 6OA and the knowledge candidate base 60B, respectively.
  • only the learning step and the support step may be used.
  • (I) a control method based on a model that phenomenologically expresses the relationship between variables will be described.
  • This is a conventional method.
  • the quality of raw water water temperature, turbidity, alkalinity, PH, electrical conductivity, residual chlorine rate, chlorine requirement, water volume, water level
  • the state of block formation measured by the imaging means 5B and the image processing device 40 is used as an input variable, and the coagulant injection amount is determined as a function of these variables.
  • the model for the decision uses formulas that have been experimentally or empirically determined. For example, for turbidity, the higher the turbidity, the greater the coagulant injection.
  • This control operation is performed without querying the operator. Since this method is a well-known technology (see, for example, Journal of Japan Water Works Association, No. 431, p. 28, issued in August 1970), a detailed description is given. Is omitted.
  • the support method of the present invention provides a graph display to the operator in order to obtain the same result as when the operator thinks of past history information and based on the memory, and obtains a result. It provides guidance and operates automatically. For example, the operator is, empirically remember rather good a typical Nono 0 turn appear side of the plurality of variables.
  • ⁇ pattern refers to a set of values Y i of variables X i at a certain time.
  • an unusual and unusual event occurs for a variable X i, we also remember this well. Also, at this time, if unusual (abnormal) events occur for other variables X j at the same time, consider these causes.
  • variable X i is a variable to be controlled and another variable X j is a variable to control the variable X i
  • the variable X i is obtained by manipulating the variable at the time of a past abnormality. If you have the experience of successfully controlling your vehicle, you will probably want to refer to this past experience or drive it in a similar manner. If the appearance of the variable X i is exactly the same, the control can be performed as it is, but in reality, the appearance of the variable X i is slightly different. Therefore, it was possible for humans to operate to obtain good results, but it was difficult to achieve this artificially. Humans have a history of the past as experience, and this experience Judging the situation comprehensively from this. This method provides a method for automatically performing such operations. In this embodiment, overall operation of the water treatment plant will be described.
  • the assistance in (ii) consists of the steps (1) to (5).
  • the learning step 71 of (1) the history patterns P 1 (tj, P 2 (t 2 ),... (Pi (ti) will be described later) of various measurement information are described.
  • the learning is performed by using a 2-euroslep mouth sensor 70 from the isole 71 S.
  • the method of selecting the history pattern to be learned will be described later.
  • the knowledge extraction step 73 of (3) knowledge and knowledge candidates are extracted from the learned results
  • the knowledge diagnosis step 74 of (4) the knowledge candidates are
  • driving support step 75 of (5) driving support is performed based on the knowledge group obtained in this learning and the knowledge group input in advance.
  • the variables handled as history information include all variables stored as data, and this will be described first. That is, the variable here is the water measured with the measuring instrument 5A. Temperature, turbidity, alkalinity, pH, electric conductivity, residual chlorine concentration, chlorine demand, water volume, water level, block size distribution calculated by the imaging means 5B and the image processor 40, Number, statistical representative particle size of distribution, distribution width, block shape characteristics, block formation, block brightness, background brightness, block density, turbidity Measured turbidity, head loss measured by measuring device 5D, water level, turbidity, residual chlorine concentration, PH, flow rate, water level measured by measuring devices 5E and 5F of water purification tank 20 and distribution reservoir 21 , Turbidity, residual chlorine concentration, pH, flow, water pressure, water temperature, turbidity, residual chlorine concentration, pH, flow rate, water pressure, water temperature, etc.
  • the values of these variables are processed (learned) in the neural processor 70. This processing method will be described with reference to FIG.
  • the symbol “ ⁇ ” is a neuron element model 701, and a solid line 702 connecting “ ⁇ ” and “ ⁇ ” is a symbol between the neuron element model 701.
  • Emotion Indicates that the information is available.
  • the neural network sensor 70 includes an input layer 71 0, an intermediate layer 72 0, and an output layer 73 0.
  • each layer is composed of a finite number of neuron element models, and the neuron element models of adjacent layers are connected.
  • the intermediate layer 720 may have a plurality of layers, but this embodiment shows an example in which the number of intermediate layers is one for simplification of description.
  • Fig. 3 shows the structure at the time of learning
  • Fig. 6 shows the structure at the time of use after learning.
  • variable setting of the input layer 710 and the output layer 730 will be described.
  • the input layer 710 is assigned with a variable that causes a cause
  • the output layer 730 is assigned with a control variable (a variable to be controlled) determined based on the cause. That is, in the present embodiment, a control variable is set as a variable 'of the output layer 730.
  • each neuron element model of the input layer 7110 is applied to each neuron element model of the input layer 7110. Turn file 7 1 Input from S. It is desirable to adjust the scale of these values so that the minimum value is "0" or more and the maximum value is "1" or less.
  • each neuron element model of the output layer 730 and the signal output from the output port 56B are set in the teacher signal layer 750.
  • these signals are the signals for controlling the flocculant injection pump 12 A 12 AS, the alkaline injection Inlet pump 12 Signal for control of 12 B 12 BS, signal for control of 13 stirrer 13 S, signal for control of stirring pad 17 A, 17 B, and 17 C 17 AS, 17 BS and 17 CS, signal for control of pump 19 19 S, signal for chlorine injector 26 26 signal for control 26 S, signal for control of pump 22 2 2 S, Nolbu 23 A, 23 B, and 23 C are signals for controlling 23 C, 23 BS, and 23 CS.
  • the target pattern consisting of these signal values is denoted by C (Pi (ti)).
  • n variables (Xi to Xn ) are input.
  • Y ⁇ t JY t J be the value of each signal of variable Xi Xn at a certain time t.
  • Time 1 ⁇ may be selected by the operator or automatically selected.
  • the operator's choice is a typical pattern (P ⁇ ti) that is to be reflected later in driving, or an abnormal pattern that is to be referred to at a later date. is there. This is important because they are stored in pattern file 1 (1 :).
  • the neural network acts on what it has learned. It is up to the operator to rely on his empirical and comprehensive data-judgment ability to make his choices, in which case the trained pattern is There are a plurality of patterns P i (), P 2 (t 2 ), ... at different times, and these patterns are repeatedly learned. This allows the neural network to acquire a pattern grasping ability comparable to the operator's past experience. Learning by the operator is performed by man-machine conversation via the keyboard 44 and the display 46.
  • the following method is also effective as a specific pattern selection method.
  • variable patterns P i (), P 2 (t 2 ),... At these different times are input to the input layer at the same time.
  • the time deviation Pi (ti) -Pj (t: j) By inputting also the time deviation Pi (ti) -Pj (t: j) and letting the different neural networks learn the steady state and the non-steady state, etc. The objectives are achieved more effectively.
  • the weighting factor for the j-th neuron element model of, Z j (2) is the sum of the inputs to the j-th neuron element model in the middle layer (second layer).
  • the output value here is calculated by the following equation according to the magnitude of Z j (2).
  • Equation (ii) The calculation contents of equation (ii) are as shown in Fig. 5. That is, as shown in the graph of FIG. Values between "0" and “1” are obtained as Y j (2).
  • the calculated value Y j (2) is sent to the output layer, and the same calculation is performed in the output layer.
  • the value Yi (l) of the variable Xi described above is input to the input layer in Fig. 3, and this signal (value) is output to the neuron element model in the intermediate layer.
  • the product sum Z j (2) of these output values Yi (1) and the weighting factor W: U (2 1) is calculated by equation (i), and the output is calculated according to the magnitude.
  • the output value Y j (2) to the layer is determined by the formula ( ⁇ ).
  • the output value Y j (2) of the hidden layer is also the product of the weight coefficient Wi; j (3 ⁇ "2) of the hidden layer (second layer) and the output layer (third layer).
  • the sum Zj (3) is calculated by the following equation.
  • the weighting factor for the neuron element model, Z j (3) is the sum of the inputs to the j-th neuron element model in the output layer (third layer).
  • the output value Y j (3) to the output layer 730 is calculated by the following equation according to the magnitude of Z j (3).
  • the calculated value (3) of the output layer is obtained.
  • the comparison layer 740 and the teacher signal layer 750 as shown in FIG.
  • the signal 730S of the output layer 730 and the teacher signal 750S of the teacher signal 750 are input to the comparison layer 740, and the output signal 730 S and the teacher signal 7500S are compared.
  • the magnitudes of the weighting factors W (32) and W (21) are corrected so that this error is reduced.
  • weighting factor Wji 3 2) and Wji (2 1) are corrected again so that this error becomes smaller.
  • the weighting factor Wji is iteratively modified until the error is sufficiently small. Initially, the weighting factor is given randomly (generated by random numbers), so the error is naturally large, but the output signal value gradually approaches the teacher signal value. Therefore, the distribution of the weighting factor Wji depends on how the variables in the output layer 730 are determined from the variables Xi in the input layer 710.
  • the present invention particularly relates to a method in which a plurality of patterns of a variable group at different times are obtained.
  • the feature is that it is repeatedly learned so that it has the same effect as the operator's past experience.
  • the plurality of patterns are patterns P i (ti) that the operator has determined important in the past.
  • the pattern grasping ability comparable to the operator's past experience is reflected, accumulated, and stored in the distribution of the weighting factor Wji of the neural net.
  • this calculation is performed by the neural processor.
  • the assisting step 72 in FIG. 2 will be described.
  • driving is supported based on the learning results of the learning process 71.
  • the past experience is given to the distribution of the value of the weighting factor Wij in the neural net. Therefore, a node consisting of the value Yi (t) of the variable Xi at the current time t.
  • the value of the control variable set as the output layer is calculated as a result.
  • the neural network consisting of the input layer 710, the intermediate layer 720, and the output layer 730 (part of Fig. 3) is used.
  • the recalled result is displayed on the display 46 to assist driving. That is, the operator can operate with reference to the display result. No, if you want to do it automatically. Turn
  • each control signal 56BS is set such that the target pattern C (Pi (t)) is obtained.
  • the value calculated by recall depends on the learned pattern, so the learned pattern should be a representative pattern at a different time or should be noted As described above, it must be a pattern at the time of abnormality.
  • the extraction method has three stages. First, the extraction method focusing on the weight coefficient will be described.
  • the relationship between the variable Xi set in the input layer 710 and the variable set in the output layer 730 can be regarded as a result of the variable Xi. Therefore, the number of variables Xi that affect the variables is limited in the calculation of recall that derives the variables X «5 from the variables X i. Since the degree of influence is given by the weighting factor Wij, the greater the absolute value of the weighting factor Wij, the greater the degree of influence.
  • the equation (V) is calculated. If the causality scale I takes a large value, there is a high possibility that there is a causal relationship between the variables Xi and Xj. Therefore, this relationship is registered in the knowledge base 60A or the knowledge candidate base 60B as knowledge or a knowledge candidate in a knowledge diagnosis step 74 described later.
  • the operator is inquired about the relationship with Xi (for example, the relationship between (vi) and ( ⁇ )), and if it is determined that there is a causal relationship, this is registered in the knowledge base 6OA. If it is determined that there is no causal relationship, this is registered in the knowledge candidate base 60B.
  • Xi for example, the relationship between (vi) and ( ⁇ )
  • the relationship with Xi is registered in the knowledge candidate base 60B without asking the operator, and in some cases, rejected.
  • connection structure can be simplified by deleting the line 720 connecting the variables Xi and. In this case, there is an effect that the calculation speed is improved. It is also conceivable to change the number of intermediate layers. Such structural changes are preferably made after a finite number of learnings
  • the relationship between Xi and is registered in the knowledge candidate base 60B. As described above, knowledge and knowledge candidates are classified. Even if a knowledge candidate is diagnosed, there is a possibility that the knowledge candidate is actually knowledge that is not conscious of a talented person. Therefore, the knowledge candidate registered in the knowledge candidate base 60B is re-inquired to the operator if the event occurs more than once, and the knowledge candidate is valid as knowledge. Diagnose if it is.
  • driving support is performed including the knowledge group previously input to the knowledge base 6OA.
  • the knowledge base 60 A stores in advance knowledge that has been made clear (empirical, scientific, etc.). Therefore, the knowledge base 6OA stores many types of knowledge.
  • the inference mechanism 61 is driven to derive a conclusion and displayed on the display 46.
  • the data in the storage device 54 is also used as needed. Conventional techniques such as forward inference and backward inference can be applied.
  • the result is used to output a signal 56 B that defines the target pattern C (Pi (ti)).
  • the neural network to learn the driving history of the vehicle as needed, and supports driving similar to past driving.
  • knowledge can be acquired through dialogue with the operator or automatically.
  • This method must not only be able to perform the same operation as in the past, but also because the knowledge grows over time, the neural network is just as effective as the operator. It has a function that gradually becomes more evident as it gains experience and experience.
  • FIG. 2 has the same configuration as the embodiment of FIG. 2 described above, except for the following three points (a), (b), and (c).
  • the pattern P at the current time is the pattern P
  • the recall calculation is executed in response to the rainfall deviation P i- t i-.
  • the calculation method is as described above in the description of FIG.
  • FIGS. 1 and 2 has the effect of learning a long-term history
  • the effect of the embodiment described in FIG. 7 is as follows: (a) The effect varies in a short period (on the order of ⁇ time). It is possible to effectively learn the phenomena, and (b) it is possible to effectively reflect the intention of the operator by using a neural network in which the contents to be learned are classified according to the intended functions. It is. That is, (a) is particularly effective when the control variable XJ is controlled by different methods depending on whether the value Yi (t) of the variable Xi is increasing or decreasing. For example, it is effective for controlling the start-up and stop of the plant, or for supporting the control in an unsteady state or an abnormal state.
  • (B) is particularly effective when the operation mode of the plant is different depending on the situation (the pattern of the variable Xi).
  • steady-state and unsteady operation is usually performed using different guidelines and methods.
  • the neural network in the steady state and the neural network in the unsteady state should be prepared separately and used separately according to the situation. It is effective.
  • the input items are water temperature, turbidity, alkalinity, pH, electrical conductivity, residual chlorine concentration, chlorine demand, water volume, water level, and the measurement means of the measuring instrument 5B and the image pickup device 5B.
  • the block features, which are the measurement items of the processing device 40, and the turbidity of the turbidity meter 5C are input to the input layer, and the coagulant injection pump control signal 12 is used as a teacher signal. If the AS, alkali injection pump control signal 12 BS, stirrer 13 control signal 13 S, stirring paddle control signal 17 AS, 17 BS and 17 CS are set, the coagulation sedimentation process It becomes a driving support control system.
  • This system consists of coagulant injection operation support control, alkali agent injection lotion rotation support control, rapid stirring operation support control, slow stirring operation support control, and so on.
  • the imaging means 5B can be grounded to the rapid mixing pond 10, the sedimentation pond 16 or the filtration pond 17, and the image processing result can be used.
  • the configuration of the neural circuit model in this example is shown in Fig. 8 (corresponding to Fig. 3).
  • the input layer 710 of this neural network has five neuron element models 701, and it is used to measure the raw water temperature, turbidity, alkalinity, PH, and flow rate at typical days and times. input .
  • the middle layer 720 includes three neuron element models.
  • the signal layer 730 is composed of one neuron element model, and the coagulant injection rate is set here.
  • learning process learning is performed by inputting the water quality of the day selected in advance (the time is predetermined at a fixed time). This learning process corresponds to the learning process 71 described in FIG. At the time of learning, first set the days that should be referenced (learned) for the purpose of providing lotus support.
  • the trained menu shown in Fig. 8 Unlearned (355 days) conditions were entered into one ral net to recall the flocculant injection rate.
  • the configuration is such that the comparison layer 7400 and the teacher signal layer 7500 are deleted from FIG. 8 (corresponding to the configuration in FIG. 6).
  • the recall error (defined as the average of the difference between the recall and the measured value) was about 20%.
  • the flocculant injection rate it is about 3 mg / £, but it can be used practically for driving assistance at water treatment plants. According to this specific example, it was possible to recall the coagulant injection rate on various water days for a long period of time by learning only a few days in one year.
  • Fig. 9 shows an example of a neural network configuration in which not only the representative water quality at one point in time but also the water quality at other times is simultaneously used as the input of the neural net. Is shown.
  • This configuration corresponds to the case where the deviation is not used in the input pattern described in FIG.
  • the “other time” may be one time point or a plurality of time points, but in this example, the case of one time point will be described. That is, raw water temperature, turbidity, alkalinity, PH, and flow rate are input to the input layer 710 with respect to the current value and the past value (a certain time before). Therefore, 10 neuron element models are required for the input layer 7 10, and 5 are used for the intermediate layer 7 20.
  • One neuron element model is used for each of the output layer 730 and the teacher signal layer 750, and the coagulant injection rate is set as in the case of FIG.
  • the current water quality input to the input layer corresponds to Pi iti), and the past water guest corresponds to P 2 (t 2 ).
  • water quality information 5 hours ago is used as the past value. Yes. Therefore, in this case, we will learn how to set the coagulant injection rate at that point in time, taking into account both the water quality at each point in time to learn and the water quality 5 hours before.
  • the time in the past is not limited to 5 hours, but may be 1 hour or 12 hours ago.
  • the recall error was 17%.
  • the reason why the error was improved compared to the example in Fig. 8 is that the temporal fluctuation of water quality was considered as the input layer.
  • the neural network shown in FIG. 10 shows a case where the time deviation information is further used as input information, and corresponds to the one described in FIG.
  • the temporal variation in water quality is explicitly entered as a deviation. That is, raw water temperature, turbidity, alkalinity, PH, and flow rate are simultaneously input to the input layer 7100 for (1) current value, (2) past value, and (3) deviation between present and past values. I do.
  • Pi (tj is the current water quality
  • P 2 (t 2 ) is the past water quality
  • PZ () Pi () – P 2 (t 2 ) is the deviation between the two.
  • 15 neuron element models are used for the input layer 7110 and 7 for the middle layer 720.
  • the combination of input patterns is not limited to the above, and a combination of a current value and a deviation or a combination of a past value and a deviation can be considered.
  • Examples of the application of the present invention to the system shown in FIG. 1 include, as input items, water temperature, turbidity, alkalinity, PH, electrical conductivity, Residual chlorine concentration, chlorine demand, amount of water, water level, and the measurement of the imaging means 5 B and the image processing device 40, the features of the block, and the turbidity of the turbidimeter 5 C, measurement Head loss, water level, turbidity, residual chlorine concentration, PH, flow rate, measurement items of instrument 5D Measurement items water level, turbidity, residual chlorine concentration, PH of instrument 5E and 5F
  • the chlorine injector control signal 26S as the teacher signal
  • the teacher signal By inputting the flow rate, water pressure and water temperature into the input layer, and setting the chlorine injector control signal 26S, as the teacher signal, it becomes a chlorine injection operation support control system, while the teacher signal is used. If the pump control signal 19 S is set, the system becomes a filtration process operation support control system.
  • input items such as water level, turbidity, residual chlorine filtration, PH, turbidity, flow rate, water pressure, water temperature, and the measurement items of the measurement devices 5G and 5G Turbidity, residual chlorine concentration, PH, flow rate, water pressure, and water temperature are input to the input layer.
  • a support control system for controlling the water quality and amount of water in the piping network can be obtained. And This system is for water flow control and distribution pressure operation support control.
  • the operation is performed according to the past history and operation results, and the operation according to the results and precedents, which were weak in the conventional automatic control and the driving support system applied to knowledge engineering, This has the effect of automatically acquiring knowledge and having the function of gradually increasing the support control contents.
  • the target is the operation support of the water treatment plant as in the previous embodiment.
  • the neural network is provided with information on past 1 weather, 2 season and time and measured solar radiation, 3 measured water, water guest, water temperature, 4 chlorine injection amount or concentration, After learning multiple examples of past history patterns using neural nets, input (1) to (3) of the day into the trained neural net (neural network for prediction) to predict unknown (2). Pre-chlorine Controls the injection amount or concentration.
  • the execution process is based on (1) a learning process using a neural network model for learning (neural net for learning), and (2) an association with a trained neural net (neural net for prediction).
  • chlorine It consists of a step of predicting the injection amount or concentration, and (3) a step of controlling the chlorine injection amount or concentration based on the prediction result.
  • the supercharged water is temporarily stored in the water purification reservoir 20 and the distribution reservoir 21, and is sent to the consumers by the pump 22 and the distribution network 24.
  • the chlorine in the chlorine storage tank 25 (for storing liquid chlorine and sodium hypochlorite, etc.) is used for disinfection. Injected into 0 at appropriate volume.
  • the chlorine injected into landing well 9 is called “pre-chlorine”
  • the chlorine injected into water purification tank 20 is called "post-chlorine".
  • the landing well 9, block formation pond 15, sedimentation pond 16, filtration pond 17 outlet, water purification pond 20, and distribution pond 21 have measuring instruments 9 M, 15 M and 16 M respectively. , 17M, 20M and 21M are installed. Measurement items are water temperature, turbidity, alkalinity, PH, electrical conductivity, residual chlorine concentration, chlorine demand, organic matter, iron, Manganese, ammonia nitrogen, organic nitrogen, water volume, water level, head loss, etc. In addition, a pyranometer 8 M that measures the amount of solar radiation (intensity of solar radiation, ultraviolet intensity, etc.) is set.
  • the predictive operation control device 80 is a computer system, and FIG. 11 shows a flow chart of the process in order to facilitate the description of the present invention. Note that the portion described as a network in the figure indicates a number of wires (or information communication routes) corresponding to the solid line 7202 in FIG.
  • the history pattern data in the predictive operation control device 80 is as follows: (1) the weather input by the operator 101 through the communication means 46, (2) the season and time, Irradiance measured by a pyranometer 8 M, 3 measuring instrument 9 M, 15 M, 16 M, 17 ⁇ , 20 ⁇ , water measured by 21 M, 21 M, water quality, water temperature, 4 chlorine injection pump 26 Chlorine injection amount or concentration (average chlorine concentration after injection) at ⁇ , and time series data of 1 to 1 are stored. From the historical pattern data file 7 1F automatically or according to the instruction from the communication means 46 6 1 7 S, (1) the selected weather data column and (2) season and time ⁇ , 3 selected data column for water volume, water quality, water temperature, and 4 selected data column Q for chlorine injection amount or concentration for learning.
  • Output to neural net 71 Learning is performed using these data T, N, C, and Q, and the execution results 71 S1 and 71 S 2 are output to the predictive dual net 72.
  • Forecast neural net 7 2 is the history record.
  • the data T, N, C, and Q required for prediction are selected from the turnover data 71 F and used for prediction.
  • the prediction result is displayed on the communication means 46 as a prediction signal 72 S and is output to the rotary control step 75.
  • the operation control process 75 receives the prediction signal 72S and outputs a target value signal 75S of the chlorine injection amount to the chlorine injection pump 26A to control the injection amount.
  • the target injection amount target signal 75 S is displayed on the communication means 46, and the actual injection amount is corrected by selecting the operator 101 as necessary.
  • the correction value is output to the chlorine injection pump 26 A again as the injection amount target value signal 75 S.
  • the symbols are collectively represented as C (0, 2).
  • T, N, C, and Q data are stored in the history pattern data file 71F.
  • the time interval will be described as being one hour.
  • the present invention is not limited to a shorter or longer time than one hour.
  • the learning neural net 71 receives data selected from the history pattern data file 71 F and executes learning. This data selection and learning method will be described below with reference to FIGS. 11 and 12.
  • Q (t — 1, 1) has been added here.
  • Q (t, 1) is input to the teacher layer 750.
  • the learning consists of an input layer 710, a middle layer 720, an output layer 730, a comparison layer 7400, and a teacher layer 7550. ).
  • the configuration of the prediction neural net 72 corresponds to that shown in FIG.
  • the prediction neural network 72 predicts the chlorine injection amount based on the learning result of the learning neural net 71, that is, the distribution of the weighting factor Wji. It is.
  • the values of the weighting factors Wji (32) and Wji (21) obtained as a result of the learning are output to the prediction neural network 72 as signals 71S1 and 71S2.
  • the prediction is performed using these.
  • the neural network for learning 71 and the neural network for prediction 72 are shown separately for convenience, but it is needless to say that the same neural network may be used. It is.
  • the neural network for prediction 72 has a configuration in which the comparison layer 74 and the teacher layer 75 are removed from the learning neural network 71.
  • What to do with the forecast neural net 72 is based on (1) weather forecast, (2) season, time, solar radiation N, (3) water volume, water quality, water temperature C, which can be predicted or known at the moment. And unknown (4) It estimates the chlorine injection amount Q.
  • the chlorine injection target value Q (0, 1) * is a signal 72S.
  • the operation control process 75 will be described below.
  • the Q (0, 1) * signal 72S is received, and the target value signal 75S of the chlorine injection amount is output to the chlorine injection pump 26A to control the flow rate.
  • the calculation frequency of the signal Q (0, i) * is usually every hour, but this time unit can be set arbitrarily. Of course, the smaller the time interval, the better the prediction accuracy. If the set time interval (1 hour in this example) is long and it is not possible to predict the chlorine injection amount in a short time (for example, 1 minute), it is predicted by mathematical interpolation. At the same time, the goal Value (predicted result) Injection amount Target value signal 75 S
  • the chlorine injection amount actually operated is set as the target value, but the purpose is to control the chlorine concentration in water in the water treatment plant. It is practical to have a goal.
  • the average chlorine concentration after injection which can be calculated by the following equation, is used instead of the chlorine injection amount Q (t, 1) 1.
  • Q D (0) is the processing flow rate.
  • Q c (0) instead of Q (t, 1) described above.
  • the neural network learns a plurality of examples of past disturbance elements and actual demand patterns, and inputs a disturbance factor of the day to the trained neural network, and demand patterns of the day are input. It is intended to remind the user.
  • the execution process consists of (1) a learning process using a learning neural network model (learning neural net), and (2) a trained neural net (a prediction neural net). It consists of a process of forecasting the demand pattern based on the association of the “Eural Net” and (3) a process of controlling the amount of supply supplied based on the forecast results. It is applied to water demand forecasts at water treatment plants, inflow / sewage flow rate forecasts at sewage treatment plants, power demand patterns at power plants and central dispatchers, and cooling / heating of district heating and cooling plants. Forecasts of heat demand pattern, power demand of Kozie-Plant.
  • the configuration and operation of the embodiment shown in Fig. 14 will be explained using the example of water demand pattern prediction at a water treatment plant.
  • FIG. 14 shows a flow chart of the process in order to facilitate the description of the present invention.
  • the portion described as a network in the figure corresponds to the solid line 7202 in FIG.
  • the value Q (t, i) (where t: day, i: time) is stored with the integrated amount per hour being 22Q.
  • the presence / absence and degree of the fault are input to the history pattern data file 71 F in the predictive operation controller 80 as the disturbance signal 46 G.
  • a data signal such as the weather can be externally input to the communication means 46 via a communication line 46I.
  • the disturbance signal 46 G is measured by an automatic measuring instrument, the input is, of course, an automatic input. In this way, the flow signal 22Q and the disturbance signal 46G are not recorded.
  • the selected data sequence Q of the flow signal 22 Q is disturbed automatically from the history pattern data file 7 1 F or by the instruction 71 1 S from the communication means 46.
  • the selected data sequence G of the signal 46 G is output to the learning neural network 71. Learning is performed using these data Q and G, and the execution results 71 S 1 and 71 S 2 are output to the dual neural network 72 for prediction.
  • Prediction 2 The user's normal nozzle 72 receives the execution results 71 S1 and 71 S2, and the flow pattern signal 2 required for prediction from the history pattern data file 71 F.
  • the 2Q data sequence and the disturbance signal 46G data sequence are selected and used for prediction.
  • the prediction result is displayed on the communication means 46 as a prediction signal 72 S and output to the operation control process 75.
  • the operation control process 75 receives the predicted signal 72S and sends the target value signal 75S of the flow rate to the pump 22. Output to control the flow rate. At the same time, the flow signal 75 S of the target value is displayed on the communication means 46, and the actual flow is corrected by selecting the operator 101 as necessary. The correction value is output to the pump 22 again as the flow signal 75S.
  • the historical pattern data consists of a flow signal 22Q and a disturbance signal 46G.
  • These data are output to the history pattern data file 71F.
  • the learning neural network 71 receives data selected from the history pattern data file 71F. This data selection method will be described below.
  • S t (t t 1, t 2 , ta, ⁇ )
  • G (t, 1), ⁇ ⁇ ⁇ , G (t, 8) is input to the input layer 7 10, and G Input (t — 1, 1), 1, 0 (1: — 1, 8).
  • tt a plurality of time points consisting past of the q, t 2, t 3, ⁇ ⁇ ⁇ , and the t, learning time a pattern over Ndeta to tii - 1, 2, ⁇ , t 3 ⁇ 4) for input I do.
  • the prediction neural net 2 predicts the demand pattern based on the learning result of the learning neural net 71, that is, the distribution of the weighting factor value Wji. It is. Weighting factors Wji (3 to 2) and 2 ⁇ -1) obtained as a result of learning Is output to the prediction neural network 72. The prediction is performed using these.
  • the demand pattern is output to the output layer 730 as an output layer pattern by calculation using equations (i) to (iv).
  • this calculation is called “prediction”. Since the value calculated by the prediction depends on the learned pattern, the learned pattern must be a representative pattern at a different time, or a pattern at the time of a noticeable abnormality. Is as described above.
  • This prediction operation is performed before the start of operation on the day (usually the day before). In other words, the difference between Q and G up to two days before.
  • the demand pattern on the day is predicted by the neural network.
  • the demand pattern Q (0, i) * is the flow rate every hour in this embodiment, but this time unit can be set arbitrarily. Of course, the smaller the time interval, the better the prediction accuracy.
  • the flow signal 75 S of the target value (predicted result) is displayed on the communication means 46, and the actual flow is corrected by selecting the operator 101 as necessary. For example, Flip multiply the proportional coefficient to the prediction rate, which correction performs Do adding a constant number kappa 2, and outputs to the pump 2 2 and the correction value of this and again the flow rate signal 7 5 S, the flow rate Only pump 22 supplies water.
  • Embodiment 1 will be further described with reference to FIG.
  • the present embodiment relates to sewage treatment.
  • This example is based on the following: (1) physical, chemical, and biological characteristics of influent water, (2) plant state quantity, (3) season and time, (4) plant state evaluation quantity, and (4) plant operation.
  • the neural network learns the past history of (1), (2), (3) and (4) above, and automatically obtains the knowledge of (1), (3) and (4), and also the knowledge of (3) and (4), as well as the learned neural network.
  • the plant's associative action provides guidance on plant operation (including control).
  • the execution process consists of (1) a learning process using a learning neural network model (learning neural net), (2) a knowledge acquisition process, (3) a knowledge diagnosis process 74, (4) an inference process, 5) Associative prediction process of learned neural net (neural net for prediction), and (6) Plant operation control process.
  • the configuration and operation will be described with reference to the embodiment shown in FIG. First, the flow of the sewage treatment process is described below.
  • the aeration tank 15 receives the sewage flowing from the sedimentation tank 9 and the return sludge from the return sludge pipe 16P1. Air is supplied to the aeration tank 15 from the blower 17Z via the control valves 17X and 17Y, and the sewage and returned sludge are mixed and stirred. Returned sludge (activated sludge) absorbs oxygen in the supplied air, and organic matter in the sewage is decomposed and led to the final sedimentation basin 16.
  • activated sludge settles due to gravity settling of the activated sludge, and the supernatant water is discharged.
  • Activated sludge settled in the final sedimentation pond 16 is drawn out, and part of it is discharged as excess sludge by the excess sludge pipe 16P2 and the pump 16C2.
  • Most of the remaining activated sludge that has not been discharged is returned as return sludge from the return sludge pump 16 C 1 to the aeration tank 15 through the return sludge pipe 16 P 1.
  • the first settling basin 9, the aeration tank 15 and the last settling basin 16 are equipped with measuring instruments 9M, 1 ⁇ M and 16M, respectively.
  • Measured items are inflow sewage, suspended solids concentration, chemical oxygen demand, oxygen concentration, nitrogen concentration, ammonia concentration, nitrate nitrogen concentration, nitrite nitrogen concentration, phosphorus concentration, dissolved oxygen concentration, and sludge.
  • Interface height SVI: Sludge Volume Index, etc.
  • the predictive operation control device 80 is a computer system, and FIG. 15 shows a flow chart of the process in order to facilitate the description of the present invention. In the figure, it is described as a network. Some parts show a number of wires (or information communication routes) corresponding to the solid line 7202 in FIG.
  • the history pattern data file 71F is: 1) Inflow water characteristics measured by 9M measuring instrument, 2) Plant state quantity measured by 15M and 16M measuring instruments, 3) Season and time 4Plot condition evaluation amount, which is a part of the measurement amount of the measuring instruments 15 M and 16 M, 5Pump 16 C 2, Returned sludge pump 16 C 1, Blower 1
  • the amount of plant operation, such as 7Z and control valves 17X and 17Y, and the time series data from 1 to 1 are stored.
  • the neural network for learning 71 is automatically selected from the history pattern data isolators 71 F or automatically by the instruction 71 S from the communication means 46.
  • the data string D 4, and the data string D 5 selected for the plant operation amount are output.
  • Each data string actually includes a plurality of items.
  • the data strings are represented by representative symbols D1 to D5.
  • learning neural net 71 learning is performed using the data D1, D2, D3, D4, and D5, and the execution results 71S1 and 71S2 are converted to the knowledge acquisition process 71. 3 and the prediction neural net 7 2.
  • the knowledge about the above 13 and 2 or 23 and 2 is converted into a symbol or a word based on 71S1 and 71S2.
  • the knowledge obtained in the obtaining step 73 is stored in the knowledge candidate base 60B or the knowledge base 6OA according to an instruction (not shown) from the communication means 46.
  • the inference mechanism 61 receives the knowledge base 6 OA and the previously input knowledge base 60 C, executes the inference, and outputs a signal 61 S to the operation control process 75.
  • the prediction neural network 72 data necessary for the prediction is selected from the historical pattern data file 71F and used for the prediction.
  • the prediction result is displayed as a prediction signal 72 S on the communication stage 46 and output to the operation control process 75.
  • the operation control process 75 receives the predicted signal 2 S and the signal 61 S and outputs a signal 75 S to return the pump 16 C 2, return the mud pump 16 C 1, and blower 17 Z Controls the amount of plant operation such as control valves 17X and 17Y.
  • the control target value signal 75 S is displayed on the communication means 46, and the actual control amount is corrected by selecting the operator 101 as necessary. The correction value is output again.
  • the learning neural net 71 receives data selected from the history pattern data file 71F and executes learning. The data selection and learning method are described below.
  • D 4 (t) and D 5 (t) are input to the teacher layer 75 0.
  • the learning is performed by a learning neural screw 71 having a configuration including-an input layer 7 10, a middle layer 7 20, an output layer 7 30, a comparison layer 7 4 0, and a teacher layer 7 5 0.
  • the learning neural net 72 predicts the unknown 45 in correspondence with the above 12 3.
  • t 0
  • Variable values Yi (D l (0) to D 3 (0)) set based on t -1,-2
  • the operation control step 75 will be described below.
  • the signal 72S of D5 * (0) and the result signal 61S of the inference mechanism 61 are received, and the consistency between the two is first checked. If the signal 72S does not contradict with the 61S, the signal 75S is used as the target value of the plant maneuver volume.
  • the notification is made to the operator 101 through the communication means 46 and correction is made.
  • the control frequency is every hour, but this time unit can be set arbitrarily. Of course, the smaller the time interval, the better the prediction accuracy.
  • the plant operation amount cannot be predicted, it is predicted by mathematical interpolation.
  • the plant manipulated variable target value signal 75 S of the target value (predicted result) is displayed on the communication means 46, and the actual operation is corrected by selecting the operator 101 as necessary. I do.
  • FIG. 16 shows another embodiment.
  • the present embodiment relates to a method of outputting a control target value by a foresight model based on the observed amount of a process.
  • the proactive model in this embodiment refers to a process model or a control model that is known in advance for the target process.
  • a method for automatically generating In the present embodiment, both models are referred to as “operator models” because both models are corrected by the operator.
  • Fig. 1 ⁇ shows an embodiment applied to coagulant injection control in the water purification process.
  • the rapid mixing pond 10 receives the water from the landing well 9, the coagulant in the coagulant tank 11 is injected by the coagulant injection pump 12, and the stirring blades 14 are stirred by the stirrer 13. Is done. Alcohol agents that promote block formation may be injected, but are omitted.
  • the block formation pond 15 is the water of the rapid mixing pond 10 In response to this, a block (aggregate of fine particles) is grown.
  • a stirring paddle 17 A is installed in the block forming pond 15 (usually there are multiple ponds, but is omitted in this embodiment), and rotates slowly.
  • the block is settled in the sedimentation basin 16 and the supernatant is passed through the filtration basin 17.
  • An appropriate amount of chlorine from the chlorine container 25 is injected into the landing well 9 and the water purification tank (not shown) by the chlorine injector 26 for sterilization.
  • a measuring instrument 9M will be installed at the landing well 9.
  • the measurement items include water temperature, turbidity, alkalinity, pH, electrical conductivity, residual chlorine concentration, chlorine demand, water temperature, water level, and so on.
  • a measuring instrument 15 M will be installed in the block formation pond 15.
  • the measuring device 15M includes an underwater image capturing means such as a hydropower camera and an image processing means in addition to the items measured by the measuring instrument 9M.
  • a measuring instrument of 16 M will be installed in the sedimentary pond. If necessary, install a measuring device 10M similar to 15M in the rapid mixing pond 10 and a measuring device 17M in the filtration pond 17. These measurement items are the same as those of 9M and 15M.
  • the parameters include the model parameters).
  • the operation control device 80 is a computer system, and FIG. 16 shows the processing flow in order to facilitate the description of the present invention. An illustration is shown.
  • the foreseeable model calculation process 65 is based on observation (measuring instruments 9 M, 15 M, 16 M, flocculant injection pump 12, stirrer 13, stirring paddle 17 A, prediction error E n (t) Then, it receives the data of the parameter Pi) of the foresight model and outputs the signal Sc to the control variable calculation step 67.
  • the historical pattern data file # 1F sequentially stores the data of the observed quantities.
  • the learning dual-purpose net 71 receives the selected data string of the history pattern data file 71F and performs learning.
  • the prediction neural network 72 receives the signals 71S1 and 71S2 from the learning neural network 71 and outputs a signal En * (t).
  • the control amount calculation step 67 receives the signal En * (t) or the correction amount En (t) of the operator 101 and the signal Sc, and outputs St.
  • the spinning control process 75 receives St and outputs a signal 75 S to control the coagulant injection pump 12, the stirrer 13, and the stirring paddle 17 A.
  • the communication means 46 is composed of a history pattern data file 71 F, a predictive model calculation step 65, a learning neural net 71, and a prediction neural net 72 by the intervention of the operator 101. , And communicate with the operation control process 75.
  • the structures of the learning neural net 71 and the prediction neural net 72 are as shown in FIGS. 3 and 6, respectively.
  • the forward-looking model calculation process 65 receives the data of the observables and uses the feedforward control model (hereinafter referred to as FFFF model). Input a signal to 65 F and the feed knock control model (hereinafter abbreviated as “FB model”) 65 B.
  • FFFF model feedforward control model
  • FB model feed knock control model
  • the FF model 65 F and the FB model 65 B are examples of forward-looking models, and may be forward-looking models other than feedback / feedforward. Needless to say.
  • the FF model 65 F and the FB model 65 B obtain the observed quantity Xi (t) and output signals for controlling the coagulant injection.
  • the general formula of the FF model 65 F is shown by the following formula.
  • S f is the output signal of the FF model 65 F
  • Xi (t) is the observed amount at time t
  • Pi is the parameter of the FF model.
  • X i (t) the turbidity of the raw water
  • ⁇ , P 2, P 3 Bruno, It is a parameter.
  • S b FB model 65 B output signal
  • Xi (t) observable at time t
  • Pi FB model no. Parameters.
  • Model output value calculation step 6 5 A outputs receives the signal S f and S b the signal S c to the control amount calculation step 6 7.
  • This general formula is represented by the following formula.
  • This predicted value Sc and the past actual value (note that the value obtained by adding the operator's correction value En (t) is more accurate than the forecast of the foresight model) Therefore, this ⁇ prediction error j (the amount of correction of the operator) is output by the dual-eurenorenet instead of the operator.
  • a method of storing the observation amount in the history pattern data file 71F will be described.
  • the time interval is, for example, one hour, but the implementation of the present invention is not limited by this interval setting.
  • the input data refers to factors that affect the prediction error of the coagulant injection amount in the observed data
  • the teacher data refers to the prediction error En (t).
  • the input data is a factor on which the operator makes a decision
  • the teacher data is a factor operated by the operator (in the present embodiment, the prediction value of the coagulant injection amount and the measured value of the actual measurement value).
  • the combination of these input / output data can be set arbitrarily according to the purpose.
  • XiCt ⁇ fi-ln — 1) and Xi it J (i l ⁇ ! I) in t-ti — l, t!-2, ...
  • learning is performed by a neural network for learning having a configuration consisting of an input layer 710, a middle layer 720, an output layer 730, a comparison layer 740, and a teacher layer 750.
  • the control amount calculation step 67 receives the signal En * (0) and the signal Sc and calculates and outputs St by the formula ( X3 ⁇ 4j ).
  • the operation control step 75 receives the signal St and outputs the signal 75S to control the coagulant injection pump 12, the stirrer 13, and the stirring paddle 17A.
  • the control frequency is every hour in the present embodiment, but this time unit can be set arbitrarily. Of course, the smaller the time interval, the better the prediction accuracy. If the set time interval (1 hour in this embodiment) is too long to predict a short time (for example, 1 minute), perform mathematical interpolation.
  • the communication means 46 is a history pattern data file 71 through the interposition of the operator 101, a method of filing the 1F, a model change in the predictive model calculation process 65, a neural network for learning. (5) The progress and results of the step 71 and the prediction neural net 72 are displayed, and the signal 75 S of the operation control process 75 is corrected.
  • the effect of the embodiment of FIG. 16 is that the error of the foresight model can always be reduced without human intervention by the actual learning of the dual neural network, and the error can be controlled compared to the conventional method. Accuracy can be improved.
  • the operator model 63 is an error prediction model.
  • a ⁇ parameter adjustment model for optimizing the parameters of the foresight model The method of automatically generating the file J is explained.
  • the operator artificially performs a task of adjusting the parameter Pi of the FF model 65 F and the FB model 65 B by looking at the output Sc of the foreseeable model calculation process 65. It is comparable to something like that.
  • the difference from the embodiment of FIG. 16 is that the parameter Pi of the predictive model is input to the teacher signal, and the appropriate value of Pi is predicted. This embodiment will be described with reference to FIG.
  • the FF model 65 F and the FB model 65 B are used.
  • the parameter Pi is set by the operator 101 through the communication means 46.
  • the set Pi value is regarded as one of the observations from the foresight model calculation process 65.
  • the parameter Pi (signal 65S) is input and stored in the history pattern data file 71F. Using the actual Pi value given by this operator as the teacher signal of the training dual-purpose net 71, the past execution is learned in the same procedure as in the embodiment of FIG. 16. .
  • the predicted neural network 72 outputs the predicted Pi value Pi * from the neural network 72, and outputs the value of the FF model 65F and the FB model 65B. Used as a lamator Pi without the intervention of an operator.
  • the FF model 65 F and the FB model 65 B calculate the equations (xi) to (xi) using the predicted value Pi * and output the signals S f and S b respectively.
  • Model output value calculation process 6 5 a is output a signal S f and S b the receiving to output a signal S c to the operation control step 7 5.
  • Hasuten control step 7 5 signal 7 5 S receives the signal S c, coagulant injection Control the pump 12, the stirrer 13, and the stirring paddle 17A.
  • the effect of the embodiment of Fig. 17 is that the adjustable parameters of the foresight model can always be set appropriately without human intervention by learning the results of neural nets. In addition, control accuracy can be improved as compared with the conventional method.
  • FIG. 1 An example in which the present invention is applied to a sewage treatment process is shown in FIG. This will be described with reference to the drawings.
  • the configuration and operation of the sewage treatment process are described below.
  • the aeration tank 15 receives the sewage overflowing from the sedimentation basin 9 and the return sludge from the return sludge pipe 16 P 1.
  • Air is supplied to the aeration tank 15 from the blower 17 Z via the control valves 17 X and 17 Y, and the sewage and the returned sludge are mixed and stirred.
  • Returned sludge (activated sludge) absorbs oxygen in the supplied air, and organic matter in the sewage is decomposed and led to the final sedimentation basin 16.
  • activated sludge settles due to gravity settling of the activated sludge, and the supernatant water is discharged.
  • Activated sludge settled in the final sedimentation basin 16 is pulled out, and most of the activated sludge is returned as sludge from the returned sludge pump 16 C1 through the returned sludge pipe 16 P1 to the aeration tank. Returned to 15. The remainder is discharged as excess sludge by the excess sludge pipe 16P2 and the excess sludge pump 16C2.
  • the first settling basin 9, the aeration tank 15 and the final settling basin 16 are equipped with measuring instruments 9M, 15M and 16M, respectively.
  • Measured items are inflow sewage, suspended solids concentration, chemical oxygen demand, PH, nitrogen concentration, ammonia strain, nitrate nitrogen concentration, nitrite nitrogen concentration, lin concentration, dissolved oxygen concentration, and sludge.
  • Interface height SVI: Sludge Volume Index, etc.
  • Forecast The lottery control device 80 is a computer system, and FIG. 18 shows a flow chart of the process in order to facilitate the explanation of the present invention.
  • the history pattern data file 71F sequentially stores the data of the measuring devices 9M, 15M, and 16M, and outputs the selected data sequence to the membership conversion process 69.
  • the membership conversion step 69 converts the values of 1 to ⁇ into a membership value and outputs this signal to the learning neural network 71.
  • the prediction neural network 72 receives the signals 71S1 and 71S2 from the learning neural network 71 and outputs a signal 72S.
  • the fuzzy rule acquisition step 73 receives the signals 71S1 and 71S2 from the learning neural network 71.
  • the fuzzy rule diagnosis process 74 receives the signal from the communication means 46 and the signal from the fuzzy rule acquisition process 73 and receives the fuzzy rule candidate base 60 B or the fuzzy rule base 60 A.
  • the fuzzy inference mechanism 61 receives the signals from the fuzzy rule bases 60 A and 60 C and outputs a signal 61 S to the operation control process 75.
  • the operation control process 75 receives the signal 61S and the signal 72S, outputs a signal 75S, and outputs a surplus sludge pump 16C2, a return sludge pump 16C1, a blower 17Z, Controls control valves 17 X and 17 Y.
  • the communication means 46 is composed of a history pattern data file 71 F, a learning neural net 71, a prediction neural net 72, and an operation control process through the intervention of the operator 101. Communicates with 7 5 and the diagnostic process 7 4.
  • “Net The portion marked with “J” indicates a number of wires (or information communication routes) corresponding to the solid line 7202 shown in FIG. Next, the operation of the predictive operation control device 80 will be described.
  • the history pattern data file 7 1F is composed of (1) disturbance characteristics measured with a measuring instrument (9M), (2) process state quantity measured with a measuring instrument (15M), and (3) profile measured with a measuring instrument (16M). Process evaluation amount, excess process sludge pump 16 C2, return sludge pump 16 C1, blower 17 Z, control valve 17 X, 17 Y, etc. The time series data of is stored.
  • the membership conversion process 69 can be performed either automatically from the history pattern data file 71F or by the instruction 71S from the communication means 46 1) Disturbance characteristics, 2) Process state , Process evaluation quantity, 4process operation quantity, and the data strings D l, D 2, D 3, and D 4 selected from each of the above 1 to ⁇ are converted into member values. Change. Each data string actually includes a plurality of items, but in this embodiment, it is represented by representative symbols D1 to D4 for ease of explanation.
  • the learning neural net 71 executes learning using the converted member-ship value, and the execution results 71 S1 and 71S2 acquire the fuzzy rule. It is output to the process 73 and the prediction neural net 72.
  • the fuzzy rule candidates related to the above-mentioned 1 to 4 are converted into symbols or words based on 71S1 and 71S2.
  • the fuzzy rule diagnosis process 74 the fuzzy rule obtained in the fuzzy rule acquisition process 73 is used.
  • the file is stored in the reference rule rule base 60B or the file rule base 6OA.
  • the fuzzy inference mechanism 61 receives the fuzzy rule base 60 A and the fuzzy rule base 60 C input in advance, executes inference, and outputs a signal 61 S to the operation control process 75. Output.
  • the forecast neural net 72 data necessary for the prediction is selected from the historical pattern data file 71F and used for the prediction.
  • the signal 72 S of the prediction result is displayed on the communication means 46 and output to the operation control process 75.
  • the operation control process 75 receives the predicted signal 72S and the signal 61S, outputs a signal 75S, and outputs a surplus sludge pump 16C2, return sludge pump 16C1, and blower 17 Z, control valve Controls the amount of process operation such as 17X and 17Y.
  • the control target value signal 75S is displayed on the communication means 46, and the actual control amount is corrected by selecting the operator 101 as necessary. The correction value is output again.
  • the time interval is, for example, one hour, but the implementation of the present invention is not restricted by this time setting.
  • the member-ship conversion step 69 will be described with reference to FIG. The figure shows an example of conversion of a preset membership function.
  • the representative of D 2 is the dissolved oxygen concentration (hereinafter abbreviated as DO), and the state of DO “high”, “normal J” and “low” is a member type.
  • Conversion function Converts with 691H, 691M, and 691L to obtain converted values D2H, D2M, and D2L.
  • the converted values D2H, D2M, and D2L are collectively referred to as DF2.
  • the horizontal axis of each conversion function indicates DO, which is a process state quantity, and the vertical axis indicates the degree by a value of 0 to 1.
  • the DO-value 0.5
  • the main-ship value 0.9
  • this means that the D0 value If 0.5, the degree of 0.9 (membership value) indicates that “D0 is low J.
  • the membership function is defined for all variables in advance, and the data sequence D 1, D2, D3, and D4 are converted to membership values to obtain DF2, DF3, and DF4.
  • three values of "high”, "normal J” and "low J” are used. Classification is possible, but the number of classification is arbitrary.
  • the learning neural net 71 receives the membership value and executes learning.
  • the data selection and learning method are described below.
  • DF 1 that is, D 1 H, DIM, D 1 L
  • DF 4 that is, D 4 H, D 4 M, D 4 L
  • an arbitrary time t-t ⁇ is used as a reference. Go back to 1 1, t! -Learn 2, ⁇ ⁇ ⁇ first.
  • the pattern data of t z — 1, t 2 — 2,... are learned, and a total of q pattern data are learned.
  • the selection of q patterns is preferably a past representative pattern. Since the time ti is an arbitrary time, a new fuzzy rule corresponding to a new situation can be automatically obtained by constantly learning.
  • the learning is performed by a learning neural network 71 composed of an input layer 710, a middle layer 720, an output layer 730, a comparison layer 7400, and a teacher layer 7550.
  • the fuzzy rule between the above 11234 is converted into a symbol or a word based on 71S1 and 71S2. Confirm the rules regarding the variable Xi to be set in the input layer 710 and the variable to be set in the output layer 730.
  • m is the number of neuron element models in the intermediate layer.
  • Equation (xii) is a calculation that takes the product sum of the weighting factors of all the paths from the input layer to the output layer.
  • the rule that expresses the relationship between the i-th input and the ⁇ -th output is established according to the confidence of Iji.
  • Iji is calculated for all combinations of input and output layers, and the result is converted to Japanese as fuzzy rule candidates. For example,
  • the rules are output in order from the one with the highest certainty factor Iji, and can be converted to the combined rule candidates as shown below.
  • the fuzzy rule candidates obtained in the fuzzy rule acquisition process 73 are validated by instructions from the operator 101 and the communication means 46.
  • Judge The fuzzy rule candidates determined to be valid are stored in the fuzzy rule base 60A, and rules that are not so are stored in the fuzzy rule candidate base 60B.
  • the candidate for the fuzzy rule stored in the fuzzy rule candidate base 60B occurs more than once, the number of occurrences is counted and the number exceeds a predetermined number (for example, two).
  • the operator 101 is again inquired by the communication means 46, and the diagnostic process 74 4 is repeated.
  • the fuzzy rule base of this embodiment is as follows: (1) For a disturbance, (2) For a process state quantity, (3) What is an evaluation quantity, and as a result, (2) How to operate a process This relationship can be obtained, but by combining the input layer and the output layer, the files can be extracted by any combination of 1 to 4.
  • the fuzzy inference mechanism 61 receives the fuzzy rule base 60A and the fuzzy rule base 60C, executes inference, and outputs a signal 61S to the operation control process 75.
  • the file base 60 C stores the production rules or fuzzy rules acquired in advance by the conventional interview method for the operator 101 in accordance with the conventional method. And use it supplementarily.
  • the fuzzy inference mechanism 61 performs forward or backward inference based on rules.
  • the configuration of the prediction neural net 72 is as shown in FIG. As shown in Fig. 18, the forecast In the neural network 72 for learning, the learning result of the neural network for learning 71, that is, the values of the weighting factor values Wji (32) and Wji (21) are used as signals 71S. Received as 1 and 7 1 S 2. In FIG. 18, the learning neural net 71 and the prediction neural net 72 are separately described for explaining the processing flow.
  • the neural network for prediction 72 has the same configuration as the neural network for learning 71 except that the comparison layer 74 and the teacher layer 75 are removed. Of course, it is good.
  • the operation control step 75 upon receiving the signal 72S of the DF5 (0) * and the signal 61S of the fuzzy inference mechanism 61, first, the consistency of the rain is examined. Unless the signal 72S is consistent with 61S, the signal 75S is used as the target value of the process operation amount, and the excess sludge pump 16C2, return sludge pump 16C1, and blower 1 1 Output to 7 Z, control valve 17 X 17 Y, etc. On the contrary, if there is a contradiction, the operator is notified to the operator 101 through the communication means 46 to make a correction.
  • the control frequency is every hour in this embodiment, the time unit can be set arbitrarily.
  • the process manipulated variable target value signal 75 S of the target value is displayed on the communication means 46, and the actual operation is corrected if necessary by selecting the operator 101.
  • the present invention has been described using the sewage treatment process as an example, it goes without saying that the present invention can be applied to a general process. According to the present embodiment, it is possible to automatically obtain a file from the past performance data, and to perform the driving guidance and control by predicting the neural net. Therefore, the operator can easily perform the “fuzzy and obscure operation in line with the results and precedents” with less effort. You can go to Further, since learning can be performed at any time, learning and control can be performed quickly following changes in the situation.
  • the basic idea of the present invention is a process for dealing with a phenomenon that varies with time, for example, a sewage treatment process, a river information processing process.
  • Information systems such as public systems such as map information systems, manufacturing processes such as chemical processes, bioprocesses, semiconductor manufacturing processes, and food manufacturing processes, securities and foreign exchange information processing processes, and bank management information processes. Applicable to management systems, terminal management systems, computer network management systems, etc. .

Description

m 糸田 β プ ΰセス運転支援方法およびシステム
技術分野
本発明は、 時間 と 共に変化する現象を取 り扱 う プロセ ス全般の運転を支援する方法及びシステムに関する。 背景技術
水処理プロ セ ス、 河川情報処理プロセス、 気象情報処 理プロ セ ス、 火力 ' 原子力 · 水力 ' 発電プロセス、 熱電 併給プ ロ セ ス、 ィ匕学プ ロセス、 バイ オプロ セス、 証券 - 為替情報処理プロ セ ス、 銀行管理情報プロセスな ど、 時 間 と 共に変化する現象を取 り扱う 各種プロ セ スの従来の 運転 (運用) 方法は、 これ らのプロセスを記述する数式 モデルを用い、 このモデルに基づいて行う ものであっ た。
し か し、 こ れ ら のプロ セ スを記述する変数群の因果関 係 が解明 さ れて い な い場合には, 数式モデル化が不可能 で あ る 。 一方、 数式モデルを用 いずに Γ ΐί t h e n j ルー ルな どの論理モデル を用いる場合には原因 と結果と の因 果関係が明 ら かになつ ていなければ、 論理モデルの適用 は不可能であ る 。 他方、 数式モデルと論理モデルと を組 み合おせた フ ァ ジー方式でも 、 両モデルの記述ができ な ければ、 適用 が不能であ る こ と はい う までも ない。 し た がっ て、 こ の よ う な場合には、 人間が過去の前例や経験 に照ら して判断 · 運転 (運用) していた。 すなわち、 原 因と結果と が不明の異常時などには、 オペ レータ は過去 の現象履歴やその記憶に基づいて運転していた。 このた め、 常に良好な運転を行う こ とは困難であった。
さ ら に、 これ らの方式では、 モデルの構造や要素 (ル —ルな ど) を変更する こ とは一般的には自動化するには 至っ ていない。 したがって、 実際の現象が変化する場合 にはこれに柔軟に対応するこ とは困難であった。
本発明の 目 的は、 これまで効果的に利用されていなか つ た過去の履歴を有効に利用する こ と によ リ、 定常時あ る いは、 非定常時 · 異常時の運転を支援する こ と ができ るプロセス運転支援方法およびシステムを提供する こ と め O o
本発明の他の 目 的は、 学習された神経回路モデルから 入出力変数間の因果関係等の知識を 自動的に抽出する方 法を提供する こ と にある。 発明の開示
本発明によ るプロ セ ス運転支援方法は、 時間と共に変 化する複数の入力変数値に応じて、 制御対象を 目標状態 とする当該制御対象の制御変数値を求めるプロセス運転 支援方法であっ て、 入力層、 少な く とも 1 層の中間層、 および出力層からなる階層構造の神経回路モデルを用い、 プロセスの過去の運転履歴情報のう ち、 異なる時点の複 数の入力変数値の代表的なパターンを入力信号とする と 共に当該代表的なパタ ーン に対応する制御変数値を教師 信号と し て、 前記神経回路モデルに学習させ、 該学習し た神経回路モデルに前記入力変数値と して未学習のパタ ーン を入力する こ と によ リ該パタ ーンに対する制御変数 値を求めるよ う に したものである。
本発明 に よ る プロ セス運転支援方法は、 他の見地によ れば、 時間 と共に変化する複数の入力変数値に応じて、 少な く と も 1 個の制御対象が目標状態と なるよ う な当該 制御対象の制御変数値を求めるプロセス蓮転ま援方法で あっ て、 入力層、 少な く と も 1 層の中間層、 および出力 層か ら な る階層構造の神経回路モデルを用い、 前記制御 対象を 目標状態とする制御が達成されたと きの前記複数 の入力変数値のパタ ーンを入力信号とする と共に当該パ タ ー ン に対応する制御変数値を教師信号と して、 複数の パタ ー ン について順次前記神経回路モデルに学習させ、 該学習 した神経回路モデルに前記入力変数値と して任意 の入力変数値パタ ーン を入力する こ と によ り該パタ ーン に対する制御変数値を求めるよう にしたものである。
これ らのプロセス運転支援方法において、 前記神経回 路モデルの学習時に、 或る時点の入力変数値パタ ーン と 該或る時点の一定時間前の時点の入力変数値パタ ーン と を 同時に入力信号と して用いる と と も に前記或る時点の 制御変数値を教師信号と して用い、 複数の入力信号につ いて学習 した後、 該神経回路モデルに現時点の入力変数 値パタ ーンおよび現時点よ リー定時間前の時点の入力変 数値パタ ーン を同時に入力する こと によ り現時点の制御 変数値を求めるこ ともできる。
本発明によ るプロセス運転ま援方法は、 さ らに他の見 地によれば、 時間 と共に変化する複数の入力変数値に応 じて、 制御対象が目標状態と なるよ う な当該制御対象の 制御変数値を求めるプロセス蓮転支援方法であっ て、 入 力層、 少な く と も 1 層の中間層、 および出力層からなる 階層構造の神経回路モデルを用い、 或る時点の入力変数 値パタ ーン、 該或る時点の一定時間前の時点の入力変数 値パタ ーン、 雨時点の入力変数値の偏差のパタ ーンの う ち 2個以上のパタ ーン を同時に入力信号と して用いる と と も に、 前記或る時点の制御変数値を教師信号と して、 複数の入力信号について前記神経回路モデルに学習させ、 該学習した神経回路モデルに現時点の前記 2個以上のパ タ ー ン を同時に入力する こ と によ り現時点の制御変数値 を求めるよう にしたものである。
好ま し く は、 前記神経回路モデルの学習した結果に基 づいて、 前記各入力変数と各制御変数と の間の因果関係 を抽出 し、 該因果関係に基づいて前記プ αセスの運転を 支援する。
前記神経回路モデルは、 例えば、 複数のニューロ ン素 子モデルからなる入力層と、 該入力層の各ニューロ ン素 子モデルの出力 をそれぞれ受ける複数のニューロ ン素子 モデルからなる少な く とも 1層の中間層と、 最終の中間 層の各ニュー ロ ンの出力を受ける少な く とも 1 個のニュ —ロ ン素子モデルか らなる出力層と を有し、 前記入力層 の各ニュー ロ ン素子モデルに入力変数を対応させる と と も に前記出力層の各ニ ューロ ン素子モデルに各制御変数 を対応させ、 前記学習は前記各ニューロ ン素子モデル間 の連結部に付与された重み係数を制御する こ と に よ リ行 Ό 。
また、 前記神経回路モデルの学習した結果に基づいて、 前記各入力変数と各制御変数と の間の結合強度を求め、 該結合強度の大き さ に基づいて前記神経回路モデルの回 路構造を変更するよ う にしてもよい。 この場合において, 特定の一入力変数と特定の一制御変数との結合強度は、 当該一入力変数に対応する前記入力層のニューロ ン素子 モデルから前記中間層の各ニューロ ン素子モデルを経て 当該一制御変数に対応する前記出力層のニュー ロ ン素子 モデルに至る各経路の重み係数の積和で定義する こ と が できる。
前記神経回路モデルの構造の変更は、 特定のニュー ロ ン素子モデル間の連結を削除した り、 前記中間層の階層 数を変更したりする こ と によ り行える。
また、 定常時の履歴情報を学習した神経回路モデルと 非定常時の履歴情報を学習した神経回路モデルと を別個 に用意 し、 運転支援時に、 定常時と非定常時とで神経回 路モデルを切 り換えて使用する こ とも可能である。
あるいは、 入力変数値のパターンの変化状態に応じて、 別個の履歴情報を学習 した神経回路モデルを複数個用意 し、 運転支援時に、 前記入力変数値のパタ ーンの変化状 態に応じて使用する神経回路モデルを切 り換える こ とも 可能である。
本発明によ る知識抽出方法は、 入力層、 中間層および 出力層の異なる層間で連結されたニューロ ン素子モデル 対間の重み係数が決定される こ と によ リ学習を有限回実 行した階層構造の神経回路モデルから、 該神経回路モデ ルの入力変数と 出力変数との間の因果関係を知識と して 抽出する知識抽出方法であって、 特定の一入力変数に対 応する入力層のニューロ ン素子モデルから前記中間層の 各ニューロ ン素子モデルを経て、 特定の一出力変数に対 応する出力層のニ ュー ロ ン素子モデルに至る複数の経路 について、 各経路の重み係数の積を求め、 複数の経路に ついて該積を加算 し、 該加算値を当該一入力変数と一出 力変数との間の因果関係を定める尺度とするものである。 本発明によ る プロ セ ス運転支援システムは、 時間と共 に変化する複数の入力変数値に応じて、 制御対象を 目標 状態とする当該制御対象の制御変数値を求めるプロセス 運転ま援システムであっ て、 入力層、 中間層および出力 層からなる階層構造の神経回路モデルを有し、 該神経回 路モデルに過去の運転履歴情報を入力信号および教師信 号と して用いて過去の運転実鑌を学習させる処理手段と、 前記制御対象か ら前記神経回路モデルに入力する入力変 数値を得る入力手段と 、 前記学習した神経回路モデルか ら知識を抽出する知識抽出手段と、 該知識抽出手段によ リ 得 られた知識を蓄積する知識ベースと 、 該知識ベース に蓄積さ れた知識か ら プロセス蓮転支援情報を得る推論 機構 と 、 前記処理手段の出力および /または前記推論機 構の 出力 に応 じて前記制御対象の制御のガイ ダンスを行 う ガイ ダンス手段と を備えたものである。
な お、 本明細書において、 「プロセス」 と は、 時間 と 共 に変化す る 現象 を取 り 扱 う 各種プ ロ セ ス を 包含 し 、 「運転」 と は、 運用、 管理、 制御等を意味する広い概念 を い う も の とす る 。 ま た、 Γ運転支援 j と は、 狭義には オペ レー タ に対 してプロセスの運転を援助する こ と を い う が、 広義に はオペ レータ を介在せず直接プロ セス を制 御する こ とも含むものとする。
本発明は、 神経回路モデルのもつ学習機能を、 (ィ)プ 口セ スの運転履歴情報からの学習、 (口)履歴情報の知識 獲得、 (ハ)履歴情報を記述するモデルの 自動生成に適用 するものである。
神経回路モデルの学習の際には、 運転が成功 した代表 的なパタ ー ン のみ を学習させる こ と によ り 、 神経回路モ デルは経験登富なオペレータ と同等の判断能力を具有し、 現実の任意の入力変数値パタ ーンに対して過去の実績と 前例に即 し た適切な支援を行う こ と ができ る。 し かも、 実際のプ ロ セス運転開始後にも学習を継続する こ と によ リ 、 神経回路モデルの能力 を現実に即 して次第に成長さ せる こ と もで き る 。 したがっ て、 最終的には、 個々 のォ ペ レ 一タ の経験、 能力、 資質等によ らず、 均質かつ最適 な運転を 目指すことができる。
また、 プロセスによっ ては、 同一の入力変数値パター ン に対する場合であっ ても、 各入力変数値の上昇時と下 降時とでは最適な制御変数値が異なる場合がある。 この ような事情に鑑み、 学習時の入力変数値パターンと して、 1 時点の履歴情報のみを用いるのではなく 、 一定時間前 の過去の履歴情報、 あるいは雨者の偏差情報をも同時に 用い る こ と によ り 、 プロセスの変化状態に応じた適切な 運転支援が可能になる。 さ らに、 定常時、 異常時等の履 歴情報をそれぞれ学習した別個の神経回路モデルを設け る こ と に よ リ 、 一層効果的な運転支援を行う こ と ができ る。
また, 過去の履歴情報には、 オペレータ が意識しない 因果関係等の知識が内包されている可能性がある。 しか し、 多数の入力変数と制御変数と の間の因果関係は必ず しも判然と しない。 そ こで、 本発明では、 既に学習を行 つ た神経回路モデルの重み係数の大小、 あるいは結合状 態に着目 して、 原因と結果と の関係を 自動的に、 抽出 - 獲得する こ と ができ る よ う に した。 これによつ て、 履歴 情報に埋もれた知識を 自動的に、 あるいは半自動的に順 次データ ベース化あ る いは知識べ一ス化する こ と ができ る 。 こ こで、 半自動的とはオペ レータ との対話を意味す る。 こ の知識ベースによっ ても、 時間と共に変化する現 象を取 り扱う各種プロ セスの運転を支援する こ と ができ る。 図面の筒単な説明
第 1 図は本発明 を浄水場の運転支援に適用 した実施例 の構成を示すブロ ッ ク 図、 第 2図は実施例での具体的手 順の フ ローの説明図、 第 3 図はニューラルネ ッ ト ワーク を示す模式図、 第 4 図はニューロ ン素子モデルを示す模 式図、 第 5 図はニ ュー ロ ン素子モデルでの信号変換を示 すグラ フ、 第 6 図は想起に用いるニューラルネ ッ ト ヮ一 ク を示す模式図、 第 7 図は本発明の他の実施例の説明図、 第 8 図〜第 1 0 図はそれぞれ本発明を凝集剤注入に適用 したニューラルネ ッ ト ワーク の構成例を示す模式図、 第 1 1 図〜第 1 3 図は本発明の更に他の実施例の説明図、 第 1 4 図は本発明の別の実施例の説明図、 第 1 5 図は本 発明の更に別の実施例の説明図、 第 1 6 図および第 1 7 図は本発明の今一つの実施例の説明図、 第 1 8 図および 第 1 9 図は他の実施例の説明図である。 発明を実施するための最良の形態
本発明は、 時間 と共に変化する多数の入力変数値のパ タ ー ン の中で、 異な る時間の代表的なパタ ー ン を、 (1 ) 神経回路モデル (ニューラルプ□セ ッサ) によ り学習、 ( 2 )学習結果に基づいて運転を支援、 (3 )学習結果からの 知識の獲得及び知識候補の蓄積、 (4 )知識候補の知識と し て の妥当性診断、 (5 )知識と推論に基づ く 運転支援、 等を行う も のであ る 。 パタ ーンは多変数の過去の履歴、 ある いは現在のパタ ー ンである。 これらの詳細説明は後 述する が、 こ こで、 多変数とは、 時間的に変化するすべ ての変数を対象にする。 したがって、 本発明は、 各種の 情報処理プロセスある いはプラ ン ト に適用できる。 こ こ では、 一実施例と して浄水場の蓮転支援に利用 した場合 を第 1図を用いて以下に説明する。
最初に、 第 1 図全体の構成と動作を説明する。
まず、 浄水場の フ ローを説明する。 第 1 図において着 水井 9 には、 河川や湖沼 (図示せず) から原水が導かれ る 。 原水は着水井 9 から急速混和池 1 0へ導かれ、 急速 混和池 1 0 では、 凝集剤タ ン ク 1 1 Aの中の液体状の凝 集剤 (ポ リ塩化アル ミ ニウム、 硫酸アルミ ニ ウムなど) が凝集剤注入ポンプ 1 2 Aで注入される。 フ ロ ッ ク形成 を促進する ために、 水酸化カルシ ウムまたは炭酸ナ ト リ ゥ ムな どのアルカ リ 剤がアルカ リ 剤タ ンク 1 1 B からァ ルカ リ剤注入ポンプ 1 2 B によ り注入される。 急速混和 池 1 0 内は、 撹拌翼 1 4 が撹拌機 1 3 によ り撹拌され、 原水中の O.Olran前後の懸濁微粒子を 0.1 前後のマイ ク 口 フ ロ ッ ク とする 。 こ の水はフ ロ ッ ク形成池 1 5 に導力、 れ フ ロ ッ ク に成長する 。 フ ロ ッ ク形成池 1 5 は複数の池 1 5 A, 1 5 B 及び 1 5 C からな り 、 各池に撹拌パ ドル 1 7 A, 1 7 B 及び 1 7 C が設置さ れ、 これ ら が緩やか に回転する 。 こ の撹拌によ り粒径が 1 ran前後の フ ロ ッ ク に成長する 。 成長 したフ ロ ッ ク は沈殿池 1 6で沈降して 上澄み液が濾過池 1 7 で濾過される。 濾過池 1 7 には、 洗浄水タ ン ク 1 8 か らポン プ 1 9 に よ り逆洗水が間欠的 に噴射さ れ、 滤床 を洗浄する 。 滤過水は、 浄水池 2 0 と 配水池 2 1 に一且貯留 さ れ、 ポ ン プ 2 2 に よ り 配管網 2 4 を介 して需要家へ送水さ れる 。 圧力 と流量と の制御 の ため にバルブ 2 3 A, 2 3 B, 2 3 C が設置さ れる 。 な お、 殺菌のため に塩素容器 2 5 の塩素が塩素注入機 2 6 によ リ着水井 9 と浄水池 2 0 と に適量注入される。
次に、 計測器につ いて説明する 。 原水の水質を計測す る ため に、 着水井 9 に計測器 5 Aが設置さ れる 。 計測項 目 は、 水温、 濁度、 アルカ リ 度、 p H、 電気伝導度、 残 留塩素濃度、 塩素要求量、 水量、 水位な どであ る 。 フ ロ ッ ク 形成池 1 5 C には、 水中カ メ ラ な どの撮像手段 5 B が設置さ れ、 必要に応 じて急速混和池 1 0や フ ロ ッ ク形 成池 1 5 Α, 1 5 Β , 並びに沈殿池 1 6 に も設置す る 。 沈殿池 1 6 には、 濁度計 5 C が設置される 。 濾過池 1 7 の計測器 5 Dの計測項 目 は、 損失水頭、 水位、 濁度、 残 留塩素濃度、 Ρ Η、 濁度、 流量な どであ る 。 浄水池 2 0 及び配水池 2 1 での計測器 5 Ε と 5 F の計測項 目 は、 水 位、 濁度、 残留塩素濃度、 Ρ Η、 濁度、 流量、 水圧、 水 温な どであ る 。 配管網 2 4 に設置さ れる計測器 5 Gの計 測項 目 は、 濁度、 残留塩素濃度、 Ρ Η、 流量、 水圧、 水 温などである。
次に、 こ れ ら計測値の コ ン ピュータ システム 8 0への 入力処理と記憶について説明する。
前述 し た各種計測器のデー タ は コ ン ビユ ー 'タ シ ステ ム 8 0 に入力 さ れ る 。 計測器 5 Α , 5 C , 5 D , 5 Ε , 5 F , 5 G で得 られた各種のデー タ は、 所定の時間間 隔( 1 分ない し 1 時間)毎にサンプ リ ン グさ れる 。 これ ら の 各 信 号 5 A S , 5 C S , 5 D S , 5 E S , 5 F S , 5 G S は、 入力ポー ト 5 6 A を通 じ、 システムバス 5 2 を 経て記憶装置 5 4 に袼鈉さ れる 。 同時に、 記憶装置 5 4 はシステムプロセ ッサ ( S P ) 4 2で処理された各 種処理データ も格納する。 なお、 撮像手段 5 B から得ら れたフ 口 ッ ク の濃淡画像のアナロ グ電気信号 5 B S は、 画像処理装置 4 0 においてディ ジタル信号に変換後、 画 像処理される。 モニタ 5 0 は画像処理装置 4 0 の処理状 況を出力する。
こ こで、 画像処理装置 4 0 の機能は、 発明者らがこれ まで提案 (例えば特願昭 61-82952号) してきた各種の処 理を行う ものであ り 、 以下に概略を説明する。 撮像手段 5 B で得た濃淡画像を 2値化して 2値画像に変換し、 2 値画像か ら フ ロ ッ ク の各々の面積、 体積、 代表直径、 形 状な どを計算する。 ついで、 粒径分布、 個数、 分布の統 計的代表粒径、 分布の幅 (標準偏差など) 、 フ ロ ッ ク の 形状特性、 フ ロ ッ ク形成量、 フ ロ ッ ク輝度、 背景の輝度、 フロ ックの密度などの特徴量を計算する。 必要に応じて、 計測器 5 A, 5 Cの値を使用 して総合的に処理状況を把 握する。
続いて、 コ ン ピュータ システム 8 0 の構成をさ らに説 明する。 .システムバス 5 2 にはシステムプロセ ッサ 4 2、 画像処理装置 4 0、 記憶装置 5 4 、 ニ ュ ーラルプロセ ッ サ ( N P ) 7 0、 知識ベ ー ス 6 0 A、 知識候補ベ ー ス 6 0 B , 推論機構 6 1 が各々 接続さ れて いる 。 システム プロ セ ッ サ ( S P ) 4 2 には キーボー ド 4 4 と ディ スプ レ イ 4 6 と が接続さ れる 。 キーボー ド 4 4 からの入力項 目 は、 (1)画像処理装置 4 0 の操作条件、 (2)ニューラル プ ロ セ ッ サ 7 0 の計算条件、 (3)オペ レー タ が水質情報 と画像情報と について持っ ている知識などである。 なお、 (1)画像処理装置 4 0 の操作条件の設定の ため に専用の キーボー ド を設置す る場合も あ る。 システムプロ セ ッサ 4 2 は こ れ ら の (1) (2) (3)の条件 を統括制御 し 、 必要に 応じて推論機構 6 1 の動作を制御する。
次に、 コ ン ピュ ー タ システム 8 0 からの出力 を説明す る 。 コ ン ピュ ータ システム 8 0での処理結果は、 出力ポ ー ト 5 6 B を通 じて、 凝集剤注入ポンプ 1 2 A、 アル力 リ剤注入ポンプ 1 2 B、 撹拌機 1 3、 撹拌パドル 1 7 A , 1 7 B , 1 7 C、 ポ ン プ 1 9 、 塩素注入機 2 6、 ポンプ 2 2、 ノ ルブ 2 3 A, 2 3 B , 2 3 C な どに対 し て、 制 御用の出力信号 1 2 A S , 1 2 B S , 1 3 S , 1 7 A S , 1 7 B S, 1 7 C S, 1 9 S , 2 6 S , 2 2 S , 2 3 A S , 2 3 B S , 2 3 C S と して送信さ れる 。 こ れ ら の信号は 前記各機器の動作を制御する。 各機器で行う 制御項 目 を 以下に説明する。
凝集剤注入ポンプ 1 2 Αでは凝集剤注入制御、 アル力 リ 剤注入 ポ ン プ 1 2 B では アルカ リ 剤注入制御、 撹拌 機 1 3 では急速撹拌制御、 撹拌パ ドル 1 7 A, 1 7 B, 1 7 Cでは緩速撹拌制御、 ポンプ 1 9 では逆洗制御、 塩 素注入機 2 6 では前塩素注入制御と後塩素注入制御、 ポ ン プ 2 2 と ノ ルブ 2 3 A, 2 3 B , 2 3 C では、 配水流 量制御と配水圧力制御である。 この他、 詳細は省略する が、 流量や水位制御な ど浄水場の維持管理に係る各種の 制御を実行する。
制御方式の概略を以下に説明する。 制御方式は ( I ) 計測情報に基づき、 計測情報間、 あるいは計測情報と出 力情報 (制御情報) と の関係をモデル化 し、 このモデル に基づいて出力 を制御する従来の制御方式と、 ( Π ) 履 歴の学習に基づく 支援方式と に分けられる。 こ こでいう 「制御」 と は、 オペ レータへの間い合わせな く 実行され る 自動操作を指し、 「支援」 とはオペ レータ ガイダンス を意味し、 主と してディ スプレイ 4 6 など (処理に応じ て音声を用いる) を用いて参考データ及び運転ガイダン ス を報知する こ と、 並びに、 オペレータ の了解が得られ た場合だけ制御を行う操作を指す。
次に、 ( Π ) を実行する場合の手順の概唣を以下に説 明する 。 ( Π ) の支援は、 本実施例では、 (1 )各種の計 測情報の履歴をニューラルプロセッサ 7 0 によ リ学習、 ( 2)学習 した結果に基づいて運転を支援、 (3)学習した結 果の中か ら知識及び知識候補を抽出、 (4 )知識候補の知 識と し て の妥当性診断、 (5)知識と推論に基づ く 運転支 援、 の 5 段階か ら な る。 こ こで、 「知識」 とは、 原因と 結果を関連づける一定のルールを指し、 知識には経験的 知識と科学的知識と がある。 一方、 「知識候補」 と は、 あ る事象 A と ある事象 B と の対 (事象 Aが成り立つ時に 事象 B が生 じた) を表おす。 このよ う な事象の対は偶然 発生する こ と も あ り 、 必然的あるいは経験的な知識とい えない場合が多いが、 中には知識とみなせるものもある。 したがっ て、 知識と は認知されないが、 多数回起きる場 合には知識と なる よ う な事象を指す。 これら知識あるい は知識候補は、 それぞれ知識ベース 6 O A と知識候補べ ース 6 0 B に格納される。
なお、 場合に よっ ては、 前記学習工程および支援工程 のみを利用することも可能である。
次に、 各制御方式の具体的手順について説明する。 ま ず、 ( I ) 変数間の関係を現象論的に表わすモデルに基 づく 制御方式について説明する。 これは、 従来の方式で あ る が、 例えば計測器 5 Aで原水の水質 (水温、 濁度、 アルカ リ度、 P H、 電気伝導度、 残留塩素濂度、 塩素要 求量、 水量、 水位) 及び、 撮像手段 5 B と画像処理装置 4 0 で計測 したフ ロ ッ ク形成状況を入力変数と し、 これ ら変数の関数と して凝集剤注入量を決定する。 決定のた めのモデルは実験的にあるいは経験的に明らかになっ た 式を適用する 。 例えば、 濁度については濁度が高い程、 凝集剤注入量を増加させる。 こ の制御操作は、 オペ レー タ への問い合わせな く 実行される。 なお、 こ の方式は従 来公知の技術であ る ので (例えば、 水道協会雑誌、 第 4 3 1号、 第 28頁、 昭和 45年 8月発行を参照)、 詳細な説明 は省略する。
次に、 本発明に関する ( Π ) 履歴の学習に基づくま援 方式と手順の詳細について説明する。 その前提と して、 本発明における 「ま援 j の考え方を説明する。
本発明の支援方法は、 運転員が過去の履歴情報を思い た'して、 この記憶に基づいて蓮転した場合と同等の結果 を得るために、 運転員に対してグラ フ表示によ リ ガイダ ンスしたり、 自動的に運転を行うものである。 たとえば、 運転員は、 経験的に複数の変数 の表れ方の代表的な ノヽ0ターンをよ く覚えている。 こ こで、 Γパターン」 とは、 ' あ る時刻における変数 X iの値 Y iの集合を さす。 他方、 あ る変数 X iについて普通でない異常な事象が起こっ た 場合、 この こ と も よ く 覚えている。 また、 この時、 同時 に他の変数 X jについても普通でない (異常な) 事象が 起こっていたら、 これらの原因をあれこれ考える。 も し、 ある変数 X iが制御したい変数でぁ リ、 他の変数 X jが変 数 X iを制御する変数であ る場合に、 過去の異常時にお いて変数 の操作によ リ変数 X iを う ま く 制御できた経 験があるな ら、 こ の過去の経験を参考に して、 あるいは 同 じ よ う な操作方法で運転するであ ろ う 。 変数 X iの表 れ方がまっ た く 同 じな らばそのまま制御すればよいが、 実際には変数 X iの表れ方は微妙に異なる。 したがって、 良好な結果を得る よ う に操作する こ とは、 人間には可能 であるが、 人工的にこれを実現する こ とは困難であった。 人間は、 過去の履歴を経験と してもつており、 こ の経験 か ら総合的に状況 を判断する。 本方法はこのよ う な運転 を 自動的に う方法 を提供する も のであ る 。 本実施例で は浄水場運転の全般について説明する。
(以下余白)
続いて、 ( Π ) 履歴の学習に基づく支援方式と手順の 詳細について第 2図を用いて以下に説明していく 。
( Π ) の支援は、 前述 したよ う に、 (1)〜(5)のステツ プか ら な る 。 (1)の学習工程 7 1 では、 各種の計測情報 の履歴パタ ーン P 1 (tj, P2 (t2) , … (Pi(ti)の説明は 後述する) を ノヽ。タ ーン フ ア イ ソレ 7 1 S か ら 二 ユ ーラゾレプ 口 セ ッ サ 7 0 で学習する も のであ る 。 学習すべ き履歴 パタ ーン の選択法については後述する。 (2)の支援工程 7 2 では学習 し た結果に基づいて運転を支援する。 (3) の知識抽出工程 7 3 では学習した結果の中から知識及び 知識候補 を抽出する。 (4)の知識診断工程 7 4 では知識 候補が知識と して妥当である か否かを診断する 。 (5)の . 運転支援工程 7 5 では、 本学習で得られた知識群とあ ら か じめ入力された知識群に基づき運転支援を行う 。 これ ら (2)〜(5)の工程はシ ステ ム プ ロ セ ッ サ 4 2 に よ り 行 い、 必要に応 じて、 キ一ボー ド 4 4、 ディ スプレイ 4 1 を操作する と共に、 知識ベース 6 0 A と知識候補ベース 6 0 B にアクセスする。
なお、 こ こ で知識と は Γも し…な らば、 …である」 と いう型式のルールである。
以下に、 各工程の内容を詳細に説明する。
(1)の学習工程 7 1 を以下に説明する 。 こ こで、 履歴 情報と して取 り扱う変数は、 データ と して記憶される総 ての変数が対象となるので、 これについてまず説明する。 すなわち、 こ こでい う変数とは計測器 5 Aで計測した水 温, 濁度, アルカ リ 度, p H, 電気伝導度, 残留塩素濃 度, 塩素要求量, 水量, 水位、 撮像手段 5 B と画像処理 装置 4 0 で計算した フ ロ ッ ク粒径分布, 個数, 分布の統 計的代表粒径, 分布の幅, フ ロ ッ ク形状特性, フ ロ ッ ク 形成量, フ ロ ッ ク輝度, 背景輝度, フ ロ ッ ク密度, 濁度 計 5 Cで計測した濁度、 計測器 5 Dで計測した損失水頭, 水位, 濁度, 残留塩素濃度, P H, 流量、 浄水池 2 0及 び配水池 2 1 の計測器 5 E と 5 Fで計測した水位, 濁度, 残留塩素濃度, p H, 流量, 水圧, 水温、 配管網 2 4 の 計測器 5 G で計測 し た濁度 , 残留塩素濃度, p H, 流 量, 水圧, 水温な ど、 入力ポ一 卜 5 6 Aから入力される 変数であ る 。 これ らの変数を Xiと表わす こ と にする 。 ま た、 あ る 時刻 における これ ら変数 Xiの と る値 Yi の集合をノ、0タ ーン 1 と して P i CY ^ t , Y 2 ( t χ) , … Υ„ ( t ,) ) と表す。 略記する時は P ^ t i ) とする。 異 な る時刻におけるノ、0タ ーン P ( t ) , P 2 ( t 2 ) , … を 学習させる 。 なお、 本実施例では、 一般化した説明を行 う ため に、 これ ら変数全てを入力 して学習するが、 目的 に応じて変数を取捨選択することはいう までもない。
これ ら の変数の値はニューラルプロセ ッサ 7 0 の中で 処理 (学習) される が、 この処理方法を第 3 図を用いて 説明する。
まず、 記号 を説明する 。 第 3 図で、 記号 "〇 " はニュ 一ロ ン素子モデル 7 0 1 であ り 、 " Ο " と "〇 " と を連 結する実線 7 0 2 はニュー ロ ン素子モデル 7 0 1 間の情 報のや り と り があ る こ と を示す。 ま た、 ニュ ー ラルプ 口 セ ッ サ 7 0 は入力層 7 1 0 と 中間層 7 2 0 と 出力層 7 3 0 と からなる。 こ こで、 各層は有限数のニューロ ン 素子モデルからな リ 、 膦接する各層のニューロ ン素子モ デル間が連結される。 中間層 7 2 0 は複数層あってよい が、 本実施例では説明の簡略化のため中間層の数が一つ の例を示す。 なお、 第 3 図は学習時の構造を示し、 第 6 図は学習後の利用時の構成を示してお り、 これらの構成 をニューラルネ ッ ト ワーク (神経回路モデルまたは神経 回路網) と称する。
こ こで、 入力層 7 1 0 と 出力層 7 3 0 と の変数設定に ついて説明する。 入力層 7 1 0 には原因と なる変数を付 与し、 一方、 出力層 7 3 0 には、 これら原因に基づいて 決め られる制御変数 (制御したい変数) を付与する。 つ ま り 、 出力層 7 3 0 の変数'と して、 本実施例では制御変 数を設定する。
以下 に 、 さ ら に具体的 に説明す る 。 ま ず、 入力層 7 1 0 の各ニューロ ン素子モデルには前述したパターン P i ( t i) を ノヽ。タ ー ン フ ァ イ ル 7 1 S か ら入力する 。 こ れ ら の値は最小値を " 0 " 以上、 最大値を " 1 " 以下に するよ う に、 スケールを調整しておく こ と が望ま しい。 他方、 出力層 7 3 0 の各ニ ュ ー ロ ン素子モデル及び、 教 師信号層 7 5 0 には出力ポー ト 5 6 B から出力される信 号を設定する。 すなわち、 これ らの信号は、 凝集剤注入 ポンプ 1 2 A制御のための信号 1 2 A S、 アルカ リ剤注 入ポンプ 1 2 B 制御のため の信号 1 2 B S、 撹拌機 1 3 制御 の た め の 信号 1 3 S、 撹拌パ ド ル 1 7 A, 1 7 B 及 び 1 7 C 制御 の た め の 信号 1 7 A S , 1 7 B S 及 び 1 7 C S、 ポンプ 1 9 制御のため の信号 1 9 S、 塩素注 入機 2 6 制御のため の信号 2 6 S、 ポンプ 2 2制御のた め の信号 2 2 S、 ノ ルブ 2 3 A, 2 3 B 及び 2 3 C制御 の た め の信号 2 3 A S , 2 3 B S 及び 2 3 C S であ る 。 これ ら の信号の値か ら な る 目標パタ ーン を C (Pi (ti) ) と 記す。
こ こ で、 ニ ュ ー ロ ン素子モデル 7 0 1 の基本演算につ いて第 4 図 を用 いて説明 してい く 。 こ こでは、 n個の変 数 ( X i〜 X n ) が入 力 さ れる例 を示す。 あ る 時刻 t に おけ る変数 Xi Xnの各信号の値を Y^ t J Y t J とする。
まず、 時刻 t iの設定法について説明する 。 時刻 t の ノ タ ー ン を P i ( t l ) とする 。 時刻 1^はオペ レ ー タ が選 択する場合 と 、 自動的に選択する場合がある 。 オペ レー タ が選択する場合 と は、 後で運転に反映させたい と考え る よ う な、 代表的なパタ ーン P ^^ t i)や、 後 日参考に し たい異常時のパタ ー ンである。 これ ら をパタ ー ン フ ア イ ル 1 ( 1: に格納す る 。 結果的に、 ニューラルネ ッ ト ヮ ーク は こ れ ら学習 し た内容に応じて動作するので、 この 選択は重要であ る 。 オペ レータ に選択を ま かせる のは、 こ のオペ レ ー タ の持つ経験的で総合的なデータ 判断能力 に頼る も のであ る 。 こ の場合、 学習させるパタ ー ンは、 異なる時間における複数のパタ ーン P i ( ), P 2 (t2 ) , …であ り 、 これ ら複数のパターンを繰返し学習させる。 これによ リ 、 オペ レータ の過去の経験に匹敵するパター ン把握能力 をニューラルネッ ト ワーク が身につける。 ォ ペ レ 一 タ に よ る学習は キ一ボー ド 4 4 と ディ スプ レ イ 4 6 と を介するマンマシン会話によ り行う 。
他方、 自動的に行う場合には、 事前にデータ列の統計 解析を必要とする 。 すなわち、 最も発生頻度が高い場合 を統計解析に よ り求めて定常時とみな してこれを学習さ せ、 一方で、 発生頻度が低い場合を異常時とみな してこ れを学習させる。
具体的なパタ ー ンの選択法と しては、 以下の方法も有 効である。
(1)処理が成功 した と き(例えば、 沈殿池濁度が lmg/ β 以下):この と き の条件を 自動的にまたはオペレータ に間 いあわせを行った後、 神経回路モデルに学習させる。
(2)処理が失敗 したと き:このと きの条件は学習しないよ う にする。
これ ら (1), (2)の操作を繰返 し行う こ と によっ て、 処 理が成功した場合だけを選択的に学習することができる。 したがって、 学習内容が次第に追加されていく につれて、 神経回路モデルが賢明になる効果がある。 すなおち、 後 述する想起誤差が次第に減少して精度が向上してい く効 果がある。
以下では、 し ば ら く 、 任意のパタ ーンを学習させる方 法について説明する。
また、 後で詳細に説明する が、 これ ら異なる時刻での 変数のパタ ーン P i ( ), P 2 (t2), … を同時に入力層に 入力す る こ と 、 さ ら に変数の時間的偏差 Pi (ti)-Pj (t:j) をも入力する こ と 、 並びに定常時と非定常時と を別々 の ニューラルネ ッ ト ワーク に学習させる こ と等によ り、 本 発明の 目的はさ らに効果的に達成される。
ニ ュ ー ラ ルネ ッ ト ワー ク での基本的な計算方法を以下 に説明する 。 まず、 設定された信号値 〜 。の各々 に 重み係数 Wjiを乗 じ、 さ ら にこれら を加算する演算 (積 和演算) が次式で計算される。
Zj(2)=∑ W (2—1) · Yi(l) -(i)
こ こ で、 Yi (1) ·· 入力層 (第 1 層) の Xiの値、 W (2 1) : 入力層 (第 1 層) の i 番 目 の変数か ら 中間層 (第 2層) の j 番 目 のニューロ ン素子モデルへの重み係 数、 Z j (2) : 中間層 (第 2層) の j 番目 のニューロ ン素 子モデルへの入力総和値、 である。
ニュー ロ ン素子モデル 7 0 1 では、 Z j (2)の大小に応 じてこ こでの出力値が次式で計算される。
- j(2)
Ύ j(2) = 1 / ( 1 - e ) …( )
( ii )式の計算内容は第 5 図のよ う な関係である。 すな わち、 同図の グラ フ に示すよ う に、 (2)の値に応じて " 0 " から " 1 " までの間の値が Y j (2)と して得られる。 計算値 Y j (2)は、 さ ら に出力層へ送られ、 出力層でも同 様の計算が実行される。 次に、 ニューラルネ ッ ト ワークでの計算方法の概要に ついて説明する 。 前述した変数 Xiの値 Yi(l)は第 3 図 の入力層に入力 さ れ、 この信号 (値) は中間層のニュー ロ ン素子モデルに出力される。 中間層のニューロ ン素子 モデルでは これ ら 出力値 Yi (1)と重み係数 W:U(2 1)と の積和 Z j (2)を( i )式で計算し、 この大小に応じて出力 層への出力値 Y j (2)を ( ΰ )式で決定する。 同様に して、 中間層の出力値 Y j(2)はさ らに中間層 (第 2層) と出力 層 (第 3層) と の重み係数 Wi;j(3<"2)と の積和 Zj(3)を 次式で計算する。
Zj(3)=∑ Wji(3<-2) · Yi(2) -(iii)
ここで、 Yi(2) ·· 中間層 (第 2層) の値、 Wji(3— 2) : 中間層 (第 2層) の i 番目 の変数から出力層 (第 3層) の j 番目のニューロン素子モデルへの重み係数、 Z j(3) : 出力層 (第 3層) の j 番目 のニューロ ン素子モデルへの 入力総和値、 である。
さ ら に、 Z j (3)の大小に応 じて出力層 7 3 0 への出力 値 Y j(3)を次式で計算する。
- Z j(3)
Y j(3) = 1 / ( 1 - e ) … O) こ の よ う に して、 出力層の計算値 (3)が得 られる。 ニ ュ ー ラ ルネ ッ ト で の学習 を実行す る に は、 出力層 7 3 0 の 後 に 、 さ ら に 第 3 図 に 示す よ う に 、 比較層 7 4 0 と教師信号層 7 5 0 と を設け、 出力層 7 3 0 の信 号 7 3 0 S と 教師信号 7 5 0 の教師信号 7 5 0 S と が比 較層 7 4 0 に入力 さ れ、 こ こで出力信号 7 3 0 S と教師 信号 7 5 0 S と が比較さ れ る 。 こ の誤差が小さ く な る よ う に、 重み係数 W (3 2)及び W (2 1)の大き さ を修 正す る 。 こ の修正値を用いて再度、 ( i )〜(iy )式の計算 並びに教師信号 と の比較を行う と、 同様に誤差がでて く る 。 こ の誤差が小さ く な る よ う に再度重み係数 Wji(3 2)及び Wji(2 1)の大きさ を修正する。 このよ う に して、 重み係数 Wjiを繰返 し修正 していき、 誤差が十分小さ く な る まで続け る 。 最初は重み係数はラ ンダムに (乱数で 発生) 与え る ので、 誤差は当然大き いが、 出力信号値は 次第に教師信号値に近づいてい く 。 したがっ て、 入力層 7 1 0 の変数 Xiか ら 出力層 7 3 0 の変数 がい かに決 定さ れたかが, 重み係数 Wjiの分布に反映さ れて い く 。
こ の よ う に誤差 を 修正 し て い く 方法は誤差逆伝搬法 と よ ば れ 、 Rumelhart ら に よ っ て 考案 さ れ た公知技術 を 利 用 す る 。 詳 細 は 文 献 (Rumelhart : Parallel Distributed Processing , MIT Press, Vol.1 , (1986) ) を 参照されたい。
こ の よ う な学習そ の も の は公知である が、 本発明は、 特に、 異な る時刻に おける変数群の複数個のパタ ーン を 繰返 し学習させて、 これによ り、 オペ レータ の過去の経 験と同等の作用を持たせるよう にした点に特徴を有する。 複数個のパタ ーン と は、 オペレータ が過去において重要 と判断 し たパタ ー ン P i ( t i ) である。 これによ り オペ レータ の過去の経験に匹敵するパターン把握能力がニュ 一ラルネ ッ トの重み係数 Wjiの分布に反映、 蓄積、 記憶 されてい く 。
なお、 本実施例ではこの計算はニューラルプロセ ッサ
7 0 で行う例を説明 したが、 システムプロセッサ 4 2で 行う こ と もでき る 。 いずれにせよ、 本発明は、 運転支援 にニューラルネ ッ ト を適用するものであるから、 機能的 にはこれまで説明 したニューラルプロセ ッサ 7 0 の機能 を持たねばならない。
次に、 第 2 図のま援工程 7 2 を説明する。 こ こでは学 習工程 7 1 での学習結果に基づいて運転を支援する。 前 述 したよ う に、 ニューラルネ ッ 卜には過去の経験が重み 係数 Wijの値の分布に付与されてい る。 そ こで、 現時刻 t の変数 Xiの値 Yi( t ) か ら な るノヽ。タ ーン P i ( t ) を 入力層に入力する こ と によ り、 結果と して出力層と して 設定された制御変数 の値が計算される。
この計算は第 6 図に示すよ う に、 入力層 7 1 0、 中間 層 7 2 0、 出力層 7 3 0 からな るニューラルネ ッ ト ヮ一 ク(第 3 図の一部である)を用いて計算する。
こ の計算は学習 して決め られた重み係数 Wijの下で、 現時刻 t でのノ、。タ ーン P i ( t ) を用いて( j )〜( iv )式を 計算する も のであ り 、 この計算を 「想起」 と い う こ と に する。
想起 し た結果 を ディ ス プ レ イ 4 6 に表示 し運転 を 支 援す る 。 す なわち 、 オペ レ ー タ は こ の表示結果 を参考 に し て運転で き る 。 自動的 に行 う 場合 に は、 ノ、。タ ーン
P i (t)の時の想起結果 を 目 標と して、 この 目標パタ ーン C (Pi (t) ) に な る よ う に、 各制御信号 5 6 B S を設定す る 。 な お、 想起に よ る計算値は、 学習 し たパタ ーンに依 存す る ので、 学習パタ ーンは異な る時刻での代表的なパ タ ー ン、 あ る い は注 目 すべき異常時のパタ ーンでなけれ ばな らないこ とは前述した通 り である。
続いて、 知識抽出工程 7 3 を説明する。 この知識抽出 工程 7 3 では、 学習 し た結果の中から知識及び知識候補 を抽出する 。 抽出法は 3段階になっ てい る が、 まず、 重 み係数に着 目 し た抽出法を説明す る 。 入力層 7 1 0 に設 定す る変数 Xiと 出力層 7 3 0 に設定する変数 と の関 係は、 変数 Xiが原因で、 変数 が結果とみなせる 。 し た がっ て、 変数 X iか ら変数 X «5を導 く 想起の計算では、 変数 に影響する変数 Xiの数は限られる。 影響の度合 いは重み係数 Wijにあ る ので, 重み係数 Wijの絶対値が 大き いほ ど影響の度合い が大きい こ と になる。 し か し、 変数 Xiか ら変数 を想起す る には複層から な る ニュー ラルネ ッ ト ワ ー ク の計算式( i )〜( iv )を , W ji (2 1)と Wji (3 2) と を用 いて実行 し な ければな らず、 いずれの 重み係数が効いて い る かあ か ら さ ま には見えない。 そ こ で、 変数 Xi (原因) と変数 (結果) との関係を総合 的に評価する指標と して、 次式で定義される 「因果性尺 度」 I jiを用いる。
Iji=∑ I Wjk(3 2) · Wki(2<-1) (v)
k=l こ こで、 mは中間層のニューロン素子モデル数である。 これは変数: iから変数 にいたるすべての重み係数 の積和を と つ たものであ るから、 変数 Xiから変数 八 の影響度合いを示す。 知識抽出工程 7 3では、 まず( V ) 式の計算を行う 。 因果性尺度 I が大きな値を とれば、 変数 Xiと変数 Xjと の因果関係がある可能性が高い。 そ こで、 こ の関係を後述の知識診断工程 7 4 において知識 ま た は知識候補と し て、 知識べ一ス 6 0 A ま たは知識 候補ベー ス 6 0 B に登録する 。 判定基準値を I *と し、 W jk (3 2) · Wki (2 1)の符号を Q とする と 、 次式に示 すよ う に、 Qが正な らば正の因果関係が、 逆に、 負な ら ば負の因果関係があるとみなせる。 例えば、
[知識 1 ] I ji〉 I *, Q > 0 の時は
変数 Xiが増加 した ら、 変数: も増加する。 ……(vi) [知識 2 ] I ji> I *, Qく 0 の時は
変数 Xiが増加 した ら、 変数: は減少する。 ……( ) な お、 I ji^ I *の と き は、 変数 Xiと変数 と の因 果関係はないもの と みなす。 また、 詳細な説明は省略す る が、 判定基準値 I *と の比較だけで判定せずに、 I ji 値の大き さ を フ ァ ジー推論のメ ンバ一シ ッ プ関数と して 利用すれば、 さ ら に き め こ ま かな対応が可能であ る 。 す なわち、 メ ンバーシ ッ プ関数の 自動生成法と して利用で きる
以下に、 診断 (問 い合わせ) の内容を具体的に説明す る。
(a)因果性尺度の問い合わせ :
(al) I ji> I *な らば
Xiと と の関係 (例えば(vi) , (νΰ)の関係) をオペ レー タ に問 い合わせ、 因果関係があ る と判断 した ら、 これ を 、 知識ベース 6 O Aへ登録する 。 因果関係がな い と判断 し た ら 、 こ れ を 、 知識候補ベース 6 0 Bへ登 録する。
(a2) I ji< I *な らば
Xiと と の関係はオペ レータ への問い合わせな し に 知識候補ベース 6 0 B に登録す る 力、、 場合に よ っ ては 棄却する。
I ji< I *の場合 に は変数 Xiと と を結ぶ線 7 0 2 を 削除す る こ と に よ リ 、 結線構造を简略化する こ と がで きる。 この場合、 計算速度が向上する効果がある。 また、 中間層の数 自体 を変更する こ と も考え られる 。 こ のよ う な、 構造の変更は、 有限回の学習後に行う こ と が好ま し い
なお、 各判定に基づいてオペ レータ への問い合わせを せずに、 自動的にこれ らの操作を行う こ と も可能である。 この場合には、 以下の様になる。
(a)因果性尺度の問い合わせ :
(al) I ji> I *ならば
Xiと; との関係を知識ベース 6 O Aへ登録する。
(a2) I ji< I *ならば
Xiと と の関係を知識候補ベース 6 0 B に登録する。 以上の様に して知識と知識候補と を分類するが、 知識 候補と診断さ れても、 その知識候補は実際には才ペ レ 一 タ が意識していない知識である可能性もある。 そこで、 知識候補ベー ス 6 0 B に登録さ れた知識候補は、 その事 象が複数回発生する よ うであれば、 再度オペ レ ー タ に問 い合わせ、 知識候補が知識と して妥当であるか否かを診 断する。
運転支援工程 7 5 では、 知識ベー ス 6 O Aにあ らかじ め入力された知識群も含めて運転支援を行う。 すなわち、 知識ベー ス 6 0 A には、 予め、 明 らかになつている知識 (経験的、 科学的知識など) を格納しておく 。 したがつ て、 知識ベース 6 O Aには、 各種の知識が多数格納され てい く 。 これ ら に基づいて推論機構 6 1 を騸動させ、 結 論を導き、 ディ スプレイ 4 6 に表示する。 必要に応じて 記憶装置 5 4 のデータ も利用する。 推論方法は前向き推 論と後向き推論な ど従来の技術が適用できる。 結果を用 いて、 目標パタ ー ン C (Pi (ti) )を定める信号 5 6 B を出 力する。
以上の よ う に して、 本発明では、 過去の異なる時刻で の運転履歴を必要に応 じてニューラルネ ッ ト ワ ーク に学 習させ、 過去の運転と 同様な運転を支援する こ と ができ る 。 さ ら に、 知識の獲得をオペ レータ と の対話を通 じて あ る いは 自動的に行う こ と ができ る。 こ の方法は、 過去 の運転 と 同様の運転を行う こ と が可能であ る ばか り でな く 、 知識が時間と共に増大するので、 オペレータ と同様、 ニュ ー ラルネ ッ ト ワー ク も実鑌と経験と を積むこ と に よ リ 、 次第に緊明になる機能を有する。
次に、 他の実施例 を第 7 図 を用いて説明する 。 こ の実 施例は先に説明 した第 2 図の実施例と 同様の構成であ る が、 以下(a) (b) (c)の 3点が異なる。
(a)、 入力層 に入力す るパタ ー ン と して異な る時間の パタ ーン P i (ti), p 2 (t2)を同時に用いる こと、
(b) 、 ノ、。 タ ー ン 間 の 偏差 P i , 2 (t 2 ) = P i (t t ) — P 2 (t2)を用いる こ と、
(c) 、 ノヽ0 タ ー ン学習させる ニューラルネ ッ ト ワ ー ク を 機能別に (例えば定常時のパタ ーン と非定常時のパタ ー ン) 複数設ける こ と
である。
ノ、。タ ー ン フ ア イ ノレ 7 1 S に は、 第 7 図に示すよ う に、 P (tx ) , P z (t2 )及び P ^, 2 ( t i,2 ) か ら構成さ れる一 つ の新たなパタ ーン を格納 し、 これを学習工程 7 1 で学 習する 。 こ こで、 t と t 2 と の時間間隔 て (
Figure imgf000033_0001
)は、 対象 とす る プ ロ セ スの時間変化特性及び制御特性によ つ て異な る値を設定する 。 学習の方法は第 2 図の説明で前 述した通りである。
支援工程 7 2では学習 し た結果に基づいて運転を支援 する。 こ こでは現時刻のパタ ーン P iit と て 時間前の パターン P
Figure imgf000034_0001
及び雨者の偏差 P i- t i- を受けて、 想起の計算を実行する。 計算方法は第 2図の 説明で前述した通リである。
知識抽出工程 7 3、 知識診断工程 7 4、 運転支援工程 7 5の動作は第 2図の説明で前述した通りである。
第 1 図及び第 2図の実施例では、 長期間の履歴を学習 する効果がある が、 第 7 図で説明 した実施例の効果は、 (a)短期間 ( τ 時間のオーダー) で変動する現象の学習 を効果的に行える、 (b)学習させる内容を 目的とする機 能別に分類したニューラルネ ッ 卜ワーク を用いる こ と に よ り オペ レータ の意図を効果的に反映できる、 の 2点で あ る。 すなわち、 (a)については、 変数 Xiの値 Yi( t ) が増加 している場合と減少している場合とで、 制御変数 X J を異なった方法で制御する場合に特に効果的である。 例えば、 プラ ン ト のスタ ー 卜ア ップ時や停止時の制御、 あ る いは、 非定常時や異常時の制御を支援す る の に有 効であ る 。 .(b)については、 プラ ン トの運転形態が状況 (変数 Xiのパタ ーン) に応 じて異なる場合に特に有効 である 。 例えば、 定常時と非定常時との運転は通常異な る指針と方法とで行われる。 このよ う な場合には、 定常 時のニューラルネ ッ 卜 ワーク と非定常時のニューラルネ ッ ト ワーク を別々 に用意し、 状况に応じて使いわける と 効果的である。
以上の よ に して、 本実施例では、 状況の異なる過去 の運転履歴を学習 し、 過去の運転と 同様な運転を支援す る こ と ができ る 。 また、 知識の獲得については、 短期間 で変動する因果関係をも獲得することが可能であるので、 プラ ン トの運転をオペ レータ がきめ こま かに行う よ う に 支援することが可能である。
(以下余白)
以上、 本発明を浄水場への適用 を例に一般的な形で説 明 したが、 具体的な支援 · 制御内容を以下の具体例で説 明する。
入力項目 と して、 計測器 5 Aの計測項目である水温、 濁度、 アルカ リ度、 p H、 電気伝導度、 残留塩素濃度、 塩素要求量、 水量、 水位、 並びに撮像手段 5 B と画像処 理装置 4 0 の計測項目 である フ ロ ッ ク特徴量、 さ ら に濁 度計 5 Cの濁度を入力層に入力 して、 教師信号と して、 凝集剤注入ポンプ制御信号 1 2 A S、 アルカ リ剤注入ポ ンプ制御信号 1 2 B S、 撹拌機 1 3 制御信号 1 3 S、 撹 拌パ ドル制御信号 1 7 A S, 1 7 B S 及び 1 7 C S を設 定すれば、 凝集沈殿プロセス運転支援制御システムとな る 。 こ の システムは凝集剤注入運転支援制御、 アルカ リ 剤注入蓮転支援制御、 急速撹拌運転ま援制御、 緩速撹拌 運転支援制御、 な どか ら構成さ れる 。 な お、 撮像手段 5 B は急速混和池 1 0、 沈殿池 1 6 または濾過池 1 7 に 接地 して、 その画像処理結果を利用する こ ともできる。
こ こで、 本発明を浄水場の凝集剤注入に適用 した具体 例とその効果についてを説明する。
こ の例における神経回路モデルの構成を第 8 図 (第 3 図に対応 してい る) に示す。 こ の神経回路の入力層 7 1 0 はニ ュ ー ロ ン素子モデル 7 0 1 を 5 個有 し、 代 表的な 日 と 時間における原水水温、 濁度、 アルカ リ度、 P H、 及び流量を入力する 。 また、 中間層 7 2 0 はニュ 一ロ ン素子モデルを 3個からな り 、 出力層 7 3 0 と教師 信号層 7 3 0 と はそれぞれ 1 個のニューロ ン素子モデル か らな リ 、 こ こ には凝集剤注入率を設定する。 学習工程 において、 予め選択さ れた日 (時間は一定の時間に予め 決めてお く ) の水質を入力 して学習させる。 この学習ェ 程は、 第 2 図で説明 した学習工程 7 1 に対応する。 学習 に際し、 まず、 蓮転支援を行う 目的で参考にすべき (学 習すべき) 日 を設定する。 浄水処理に失敗した 日 を学習 させる と誤っ た学習になるので、 浄水処理に成功した日 を学習させる こ と が重要である。 次-に、 学習すべき 日 の 設定も重要であ り、 特に、 浄水場では 1 年間 ( 3 6 5 日) の水質の変動や季節の変動が処理性能に大き く影響する ので、 1 年間の変動を まんべんな く取り込むよ う な代表 的な 日 (処理条件) を選択する。 例えば、 1 力 月 に 1 日 を'学習パタ ーン に選ぶ。 こ の選択の基準を以下に示す。 ( 1 )処理結果が良好な場合、 すなわち、 浄水場の実施例 では沈殿濁度が 1 . Om g/ β以下の 日、
( 2 )水質が年間変動する中で代表的な 日、 すなわち、 浄 水場での実施例では春复秋冬の代表的な日、
を少な く とも 1日以上選ぶ。
こ の例では、 1 年間 ( 365日)の蓮転履歴の中から処理 が成功 し た (すなわち沈殿濁度が所定値以下の) と きの 日 と して 1 0 日分 ( 1 日 1条件) の水質を入力 し、 他方、 教師信号と して対応する凝集剤注入率を学習させる。 学 習日数は 5 日ない し 3 0 日分が適している。
学習が終了 した後、 次に、 こ の第 8 図の学習済みニュ 一ラルネ ッ ト に未学習 (355日)の条件を入力 し、 凝集剤 注入率を想起させた。 想起する場合には、 第 8 図の中で 比較層 7 4 0 と教師信号層 7 5 0 と を削除 した構成 (第 6 図の構成に相当) で行う 。 その結果、 想起誤差 (想起 と実測値との差の平均値で定義する) は約 20%であっ た。 凝集剤注入率に換算する と約 3 mg/ £ にな る が、 浄水場 での運転支援には実用でき る。 この具体例によれば、 1 年間の中での僅かな 日数の学習で長期間の種々 の水黉の 日の凝集剤注入率を想起することができた。
次に、 第 9 図に、 ニューラルネ ッ トの入力 と して、 1 曰 のあ る時点の代表水質だけでな く 、 他の時間における 水質をも同時に利用する場合のニューラルネッ 卜の構成 例を示す。 こ の構成は、 第 8 図で説明した入力パターン の う ち偏差を利用 しない場合に相当する。 前記 「他の時 間」 は、 1 時点でも複数時点でもよいが、 この例では 1 時点の場合を説明する。 すなわち、 入力層 7 1 0 には現 在の値と過去 (ある時間前) の値と について、 それぞれ 原水水温、 濁度、 アルカ リ 度、 P H、 及び流量を入力す る 。 したがっ て、 入力層 7 1 0 のニューロン素子モデル は 1 0個必要であ り 、 中間層 7 2 0 には 5個用いた。 出 力層 7 3 0 および教師信号層 7 5 0 には、 それぞれ 1 個 のニューロ ン素子モデルを用い、 第 8 図の場合と 同様、 凝集剤注入率を設定する。 入力層に入力する現在の水質 が Pi iti) , 過去の水賓が P2 (t2)にそれぞれ対応する。 こ の過去の値と して、 こ の例では 5時間前の水質情報を用 い る。 したがっ て、 この場合には、 学習する各時点の水 質と 5 時間前の水質の両方を考慮して、 その時点の凝集 剤注入率を い かに設定すべき を学習する こ と になる。 過 去の時間 と しては、 5 時間に限るものではな く 、 1 時間 前ある いは 12時間前等の値であっても よい。 この方法に よ り 、 10日分の水質と凝集剤注入率を学習させた結果、 想起誤差は 17 %であっ た。 第 8 図の例よ り誤差が改善さ れた理由は、 水質の時間的変動を入力層と して考慮した からである。
第 1 0 図のニューラルネ ッ トは、 入力情報と して、 さ ら に時間偏差情報を用 いる場合を示し、 第 7 図で説明 し たもの に相当する 。 こ の例では、 水質の時間的変動を偏 差と して明示的に入力するものである。 すなわち、 入力 層 7 1 0 には、 同時に①現在の値、 ②過去の値、 ③現在 と過去の値の偏差、 の各々 について、 原水水温、 濁度、 アルカ リ 度、 P H、 及び流量を入力する。 第 7 図に対応 させれば、 Pi (tjが現在の水質、 P2(t2)が過去の水質、 P Z ( ) = Pi ( )一 P2 (t2)が両者の偏差である 。 この 場合、 ニュ ー ロ ン素子モデルは入力層 7 1 0 に 15個、 中 間層 7 2 0 に 7 個を用いる 。 前記同様、 出力層 7 3 0 お よび教師信号層 7 5 0 には 1 個用い、 凝集剤注入率を設 定する 。 先の例と 同様に して学習させた結果、 1 年間の 想起誤差は、 12 % にまで改善された。 すなわち、 この例 では、 水質の時間変化状況を偏差の値と して明示的に入 力情報に用いた結果、 例えば、 降雨開始時と終了時のよ う に、 水質変動が激しい場合の注入率を よ り 的確に予測 できるよ う になっ た。
なお、 過去の値と して凝集剤注入率も付加すれば、 精 度がさ らに向上する。
さ ら に、 図示しないが、 定常時と しての晴天時 (原水 濁度が 1 0mg / ώ 以下)の場合と、 非定常時と しての降雨時 (原水濁度が l Omg / β 以上)の場合につ いて、 第 1 0 図の ニューラルネ ッ ト を別個に 2個用意し、 各々独立して学 習させ、 続いて、 前記と同様に想起させた。 その結果、 想起誤差は 7 % に まで改善された。 この こ と は、 降雨時 と晴天時、 あるいは降雨開始時と終了時と を考慮したこ と にょ リ 、 経験登富なオペ レータ の運転法をよ り忠実に 再現できたも のであ る 。 この よ う に、 時間偏差情報をも 考慮する こ と 、 並びに、 機能別のニューラルネ ッ ト を複 数個使用する こ と に よ り、 想起誤差 (運転支援時のガイ ダンス誤差) がよ リ小さ く なる効果がある。
次に、 前述した従来の、 計測情報 (原水水質) と出力 情報 (凝集剤注入率) と の関係をモデル化する方法と本 実施例によ る効果を具体的に比較する。 従来法と して、 標準的な重回帰分析法を採用 した。 この方法は、 1 年間 のすベての原水水質と凝集剤注入率のデータ を用いて、 原水水質と凝集剤注入率のデータ を用いて、 原水水質と 凝集剤注入率と の関係を数式で表わすものである。 この 方法で 1 年間の凝集剤注入率の誤差を計算したと こ ろ、 約 14 % の誤差があっ た。 本実施例では、 計 20日 のデータ しか使用 していないが、 第 1 0図以降の具体例によれば、 1 年間のデータ を用いる この従来法と 同等以上の効果が ある こ と になる。
なお、 本実施例では説明 しなかっ たが、 フ ロ ッ ク形成 状況な どを画像監視 した情報を入力すれば、 さ らに効果 がある 。 その他、 詳述 しないが、 入力パタ ーンの組合せ と しては、 前記のものに限らず、 現在値と偏差の組合せ、 あるいは過去値と偏差の組合せ等も考えられる。
第 1 図のシ ステム における本発明の適用例と しては、 その他、 入力項 目 と して、 計測器 5 Aの計測項目である 水温、 濁度、 アルカ リ度、 P H、 電気伝導度、 残留塩素 濃度、 塩素要求量、 水量、 水位、 並びに撮像手段 5 B と 画像処理装置 4 0 の計測項 目であ る フ ロ ッ ク特徴量、 さ ら に濁度計 5 Cの濁度、 計測器 5 Dの計測項目である損 失水頭、 水位、 濁度、 残留塩素濃度、 P H、 流量、 計測 器 5 E と 5 F の計測項目であ る水位、 濁度、 残留塩素濃 度、 P H、 流量、 水圧、 水温を入力層に入力 して、 教師 信号と して、 塩素注入機制御信号 2 6 S、 を設定すれば、 塩素注入運転支援制御システムと な り、 一方、 教師信号 と して、 ポンプ制御信号 1 9 S を設定すれば、 濾過プロ セス運転支援制御システムと なる。
さ ら に、 入力項目 と して、 計測器 5 E と 5 Fの計測項 目である水位、 濁度、 残留塩素漉度、 P H、 濁度、 流量、 水圧、 水温、 及び、 計測器 5 Gの計測項目である濁度、 残留塩素濂度、 P H、 流量、 水圧、 水温を入力層に入力 して、 教師信号と してはポンプ制御信号 2 2 S、 バルブ 制御信号 2 3 A S , 2 3 B S及ぴ 2 3 C S を設定すれば、 配管網の水質と水量を制御するための支援制御システム と なる 。 本システムは、 配水流量蓮転ま援制御と配水圧 力運転支援制御のためのである。
これ ら の実施例は、 いずれも過去の履歴や運転実績に 応じて運転がなされており、 従来の 自動制御や知識工学 適用の運転支援システムが苦手と した、 実績と前例に即 した運転と, 知識の 自動獲得と、 支援制御内容が次第に 成長する機能を有するという効果がある。
こ の他、 詳細は省唣する が、 水位制御など浄水場の維 持管理に係る各種の制御を実行できる こ とはいう までも ない。
次に、 本発明の別の実施例を説明する。 適用対象は、 先の実施例と同様、 浄水場の運転支援である。
本実施例は、 ニュー ラルネ ッ 卜 に過去の①天候、 ②季 節と時刻と計測された日射量、 ③計測された水量、 水賓、 水温、 ④塩素注入量または濃度、 以上①〜④の過去履歴 パタ ーン を複数例、 ニューラルネ ッ ト を用いて学習後、 学習済みのニューラルネッ 卜 (予測用ニューラルネッ 卜) に当 日 の①〜③を入力 し、 未知の④を予測させて前塩素 注入量または濃度を制御するものである。
実行工程は、 (1 )学習用神経回路モデル (学習用ニュ 一ラルネ ッ ト) によ る学習工程、 (2 )学習済み二ユーラ ルネ ッ ト (予測用ニューラルネ ッ ト) の連想によ る塩素 注入量ま たは濃度の予測工程、 (3)予測結果に基づ く 塩 素注入量または濃度の制御工程からなる。
第 1 1 図の実施例で構成と動作を説明する。 まず、 浄 水場の フ ロ ーを説明する。 同図において着水井 9 には、 河川や湖沼 (図示せず) から導かれた原水が導かれる。 急速混和池 1 0 では着水井 9 の水を導き、 凝集剤タ ンク 1 1 A から凝集剤が注入され、 撹拌機 1 3 によ り撹拌し て原水中の懸濁微粒子を凝集させる。 図示は省略するが、 必要に応 じてアル力 リ剤が注入される。 フ ロ ッ ク形成池 1 5 (複数の池があ る が省略して 1 つの池だけ図示) で は撹拌パ ドル 1 7 Aの撹拌によ り フ ロ ッ ク (凝集塊) が 成長する 。 成長したフ ロ ッ ク は沈殿池 1 6で沈降して上 澄み液が濾過池 1 7 で濾過さ れる 。 滤過水は、 浄水池 2 0 と配水池 2 1 に一旦貯留さ れ、 ポンプ 2 2 に よ り配 管網 2 4 によ り需要家へ送水される。 殺菌のために塩素 貯留槽 2 5 (液体塩素や次亜塩素酸ナ ト リ ウ ムな どを貯 留) の塩素が塩素注入ポンプ 2 6 A と 2 6 B よ り着水井 9 と浄水池 2 0 に適量注入される。 着水井 9 に注入する 塩素を 「前塩素」 と首い、 浄水池 2 0で注入する塩素を 「後塩素」 という。
着水井 9、 フ ロ ッ ク形成池 1 5、 沈殿池 1 6、 濾過池 1 7 出 口 、 浄水池 2 0、 配水池 2 1 には、 各々 計測器 9 M , 1 5 M、 1 6 M、 1 7 M、 2 0 M、 2 1 M が設置 さ れる 。 計測項目 は、 水温、 濁度、 アルカ リ 度、 P H、 電気伝導度、 残留塩素濃度、 塩素要求量、 有機物、 鉄、 マンガン、 アンモニア性窒素、 有機性窒素、 水量、 水位、 損失水頭な どであ る。 また、 日射量 (日射強度や紫外線 強度など) を計測する 日射計 8 Mが設定される。
続いて、 予測運転制御装置 8 0 の構成を説明する。 予 測運転制御装置 8 0 はコ ン ピュータ システムであ り本発 明の説明を容易にするために第 1 1 図には処理のフ ロー 図 を示してあ る。 なお、 図中ネッ ト ワーク と記載されて い る部分は第 4 図の実線 7 0 2 に相当す る多数の配線 (または情報の連絡経路) を示す。
まず、 予測運転制御装置 8 0 の中の履歴パタ ーンデ一 タ フ ア イ ノレ 7 1 F は、 ① オ ペ レ ー タ 1 0 1 が交信手段 4 6 で入力 した天候、 ②季節と時刻と、 日射計 8 Mで計 測した日射量、 ③計測器 9 M、 1 5 M、 1 6 M , 1 7 Μ、 2 0 Μ、 2 1 Mで計測した水量、 水質、 水温、 ④塩素注 入ポンプ 2 6 Αでの塩素注入量または濃度 (注入後の平 均塩素瀵度) 、 以上①〜④の時系列データ が記憶される。 履歴パタ ーンデー タ フ ァ イ ル 7 1 Fの中から 自動的にま たは交信手段 4 6 から の指示 7 1 S によ リ 、 ①天候の選 択されたデータ 列丁 と 、 ②季節と時刻と 日射量の選択さ れたデータ 列 Ν と、 ③水量、 水質、 水温の選択されたデ ータ 列 C と、 ④塩素注入量または濃度の選択されたデー タ列 Q と が、 各々学習用ニューラルネ ッ ト 7 1 に出力さ れる。 これ らデータ T, N, C, Q を用いて学習が実行 され、 実行結果 7 1 S 1 と 7 1 S 2 と が予測用二ユーラ ルネ ッ ト 7 2 に出力 さ れる 。 予測用 ニュ ー ラ ルネ ッ ト 7 2 では、 履歴ノヽ。 タ ー ンデ一タ フ ア イノレ 7 1 Fの中から 予測に必要なデータ T, N, C, Q を選択 して予測に使 用する。 予測結果は予測信号 7 2 S と して交信手段 4 6 に表示す る と 共に、 蓮転制御工程 7 5 に出力す る 。 運 転制御工程 7 5 は予測信号 7 2 S を受けて塩素注入量の 目標値信号 7 5 S を塩素注入ポンプ 2 6 Aに出力 して注 入量 を制御す る 。 同時に、 目標値の注入量 目 標値信号 7 5 S を交信手段 4 6 に表示して、 必要に応じてォペ レ —タ 1 0 1 の選択によ り実際の注入量を補正する。 補正 値は再び注入量 目標値信号 7 5 S と して塩素注入ポンプ 2 6 Aに出力する。
次に、 第 1 1 図の実施例の動作を説明する。 説明では 塩素注入量を操作する実施例について説明するが、 塩素 注入後の平均塩素濃度の場合にも同様に実施できる。
まず、 履歴ノヽ。タ ー ンデータ フ ア イノレ 7 1 Fへデータ を 記憶する方法について説明する。 時刻 t = 0 の履歴パタ — ンデータ は、 ①天候 T ( 0 , 1 )と 、 ②季節, 時刻, 日 射量の Ν ( 0 , 1 ), Ν (0 , 2), Ν (0 , 3 )と、 ③水量, 水質, 水温の C ( 0 , 1 ) , C (0 , 2 ) , C (0 , 3 )と、 ④塩素注入量 Q ( 0 , 1 )である 。 水質 C ( 0 , 2 )は各々 時刻 t = 0 での前述した複数の計測量であ り、 これらす ベて を用いれば精度が上がる こ とは言う までもないので 複数の場合の具体的説明は省嗨する。 本実施例では一括 して記号で C ( 0 , 2 )と表す。 これ ら T, N, C , Qの データ を履歴パタ ーンデー タ フ ァ イ ル 7 1 F に記憶する。 これ を繰 り 返す と 、 t = 0 , - 1 , - 2 , · · ·のデータ が 順次記億されてい く 。 こ の時間間隔は本実施例では 1 時 間の場合を説明する が、 1 時間よ り短く ても長く ても本 発明の実施は制約を受けない。
続いて、 学習工程におけ る学習用ニューラルネ ッ 卜
7 1 の動作を以下に説明する。 学習用ニューラルネ ッ ト 7 1 では、 履歴パタ ーンデータ フ ア イノレ 7 1 Fの中から 選択されたデータ を受けて学習を実行する。 このデータ 選択と学習方法を以下に第 1 1 図と第 1 2 図と を用いて 説明する。
第 1 2図に示すよう に、 ①天候 T ( 0 , 1 )と、 ②季節, 時刻, 日射量の Ν (0 , 1 ), Ν (0 , 2 ), Ν ( 0 , 3 )と、 ③水量, 水質, 水温の C (0 , 1 ), C ( 0 , 2 ) , C ( 0 , 3 ) と 、 ④塩素注入量 Q (0 , 1 )について任意の時刻 t = t i を基準に し過去にさ かのぼって 一 1 , t! - 2 ,
· · · を まず学習する。 同様に、 t t z f t z^ t i ) を基 準 に し て t 2 — 1 , t z - 2 , · · ·のパタ ーンデータ を学 習 し、 合計 q個のパタ ーンデータ を学習する。 学習はこ れ ら のデータ を入力用データ と教師用データ と に分けて 行な う 。 第 1 図 に示すよ う に、 入力層 7 1 0 には(1)任 意の時刻 t i t - t i , t 1 , · · · ) における T ( t , 1 ), N ( t , 1 ) , N ( t , 2 ) , N ( t , 3 ) , C ( t , 1 ) , C ( t , 2 ), C ( t , 3 )と、 時刻 t から過去にさ かのぼ つ て T ( t 一 1 , 1 ), N ( t - 1 , 1 ), N ( t - 1 , 2 ), N ( t - 1 , 3 ) , C ( t - 1 , 1 ) , C ( t - 1 , 2 ) , C ( t 一 1, 3 ) , Q ( t — 1, 1 )を順次入力する。 こ こ で、 Q ( t — 1, 1 )が追加さ れている こ と に注意された い。 一方、 教師層 7 5 0 には、 Q ( t, 1 ) を入力する。 学習は、 入力層 7 1 0、 中間層 7 2 0、 出力層 7 3 0、 比較層 7 4 0、 教師層 7 5 0 からなる構成の学習用ニュ 一ラルネッ ト 7 1 (第 3図に相当) で行なう。
次に、 予測用ニューラルネ ッ ト 7 2 によ る予測工程を 説明する。 予測用ニューラルネ ッ ト 7 2 の構成は第 6 図 のものに相当する。 第 1 1 図に示したよ う に、 予測用二 ユーラルネ ッ ト 7 2 では学習用ニューラルネ ッ ト 7 1 で の学習結果、 すなわち、 重み係数値 Wjiの分布に基づい て塩素注入量を予測するも のである。 学習の結果得られ た重み係数 Wji ( 3 2 )および Wji( 2 1 )の値が信号 7 1 S 1 と 7 1 S 2 と して予測用ニュ 一ラゾレネ ッ 卜 7 2 に出力 さ れる。 これ ら を用いて予測を行なう 。 なお、 第 1 1 図では学習用ニューラルネ ッ ト 7 1 と予測用ニュー ラルネ ッ ト 7 2 と は便宜上別々 に記載されてい るが、 同 一のニューラルネ ッ ト を用いて良いこ と は勿論である。
次に、 予測用ニ ュー ラルネ ッ ト 7 2 の動作を第 6 図と 第 1 3 図を用いて説明する 。 第 6 図に示すよ う に、 予測 用ニ ューラルネ ッ ト 7 2 は学習用ニューラルネ ジ ト 7 1 から比較層 7 4 0 と教師層 7 5 0 を除いた構成である。 予測用ニ ュ ー ラ ルネ ッ ト 7 2で行なう こ とは、 現時点で 予測できるかまたは既知である①天候丁、 ②季節, 時刻, 日 射量 N、 ③水量, 水質, 水温 C、 に基づいて、 未知の ④塩素注入量 Q を予測するものである。 このために、 ま ず入力層 7 1 0 に入力層パタ ーンと して、 t == 0 を基準 に設定 し た変数値 Yiを入力層 7 1 0 に入力する 。 こ の 変数値 Yiは第 1 1 図または第 1 3 図に示すよ う に、 (1) 現時点で既知の①天候 T (0 , 1 )と、 ②季節, 時刻, 日 射量の Ν ( 0 , 1 ), Ν (0 , 2 ), Ν ( 0 , 3 )と、 ③水量, 水質, 水温の C (0 , 1 ), C ( 0 , 2 ) , C ( 0 , 3 )と、 (2)過去( t = - 1 )における①〜③のデータ と④塩素注入 量 Q (- l , 1 )であ る。 この他、 t = - 2 の T, N , C , Qの値も入れてよい。 これらは全て実績値あるいは既知 のデータ であ る 。 これ ら の値に基づいて現在どの く ら い塩素を注入すべき か、 すなわち未知の塩素注入 目標値 Q ( 0 , 1 ) * を予測する。 結果は出力層 7 3 0 に出力さ れる。 出力までの計算方法は前記( i )〜( )式を用いた 前述と 同 じ計算を実行する。 塩素注入目標値 Q ( 0 , 1 ) * は信号 7 2 Sである。
運転制御工程 7 5 を以下に説明する 。 運転制御工程 7 5 では、 この Q ( 0 , 1 ) * の信号 7 2 S を受けて、 塩 素注入量の 目標値信号 7 5 S を塩素注入ポンプ 2 6 Aに 出力 して流量を制御する。 信号 Q (0 , i ) * の計算頻度 は通常 1 時間毎であ る が、 この時間単位は任意に設定で きる。 勿論、 時間間隔が小さければ予測精度は向上する。 設定した時間間隔 (本実施例では 1 時間) が長いために 短い時間 (例えば 1 分間) の塩素注入量を予測できない 場合には、 数学的な補間によ り予測する。 同時に、 目標 値 (予測結果) の注入量 目標値信号 7 5 S を 交信手段
4 6 に表示 して、 必要に応 じてオペ レータ 1 0 1 の選択 によ り実際の流量を補正する。 例えば、 予測流量に対し て比例係数 を乗じ、 定数 Κ2を加算するなどの補正を 行ない、 こ の補正値を再び注入量目標値信号 7 5 S と し て塩素注入ポンプ 2 6 Αに出力 し、 この流量だけ塩素注 入ポンプ 2 6 Αが着水井 9に塩素を注入する。
なお、 本実施例の説明では実際に操作する塩素注入量 を 目標値に して説明 したが、 目的は浄水場内における水 中塩素濃度を制御する こ とであ る ので、 注入後の塩素濃 度を 目標にする方法が実用的である。 この場合には塩素 注入量 Q (t , 1) 1 の代わ り に、 次式で計算できる注入 後の平均塩素镄度を用いる。
Q (0, 1 )
Q c ( 0 ) = (viii)
QD( 0 )
こ こ で、 Q D ( 0 )は処理流量であ る、 具体的方法は、 こ れまで Q ( t , 1 )で説明 し た代わ り に Q c ( 0 )を用い て行なう 。
次に、 本発明の刖の実施例について説明する。
本実施例は、 ニューラルネ ッ トに過去の外乱囟子と実 績需要パタ ー ン を複数例学習させ、 学習済みニューラル ネ ッ 卜 に当 日 の外乱因子を入力 して当 日 の需要パタ ーン を連想さ せ る よ う に したも のであ る 。 実行工程は、 (1) 学習用神経回路モデル (学習用ニューラルネ ッ ト) に よ る学習工程、 (2)学習済みニュー ラルネ ッ ト (予測用二 ユーラルネッ 卜) の連想による需要パタ ーンの予測工程、 (3)予測結果に基づく供給量の蓮転制御工程からなる。 適用先は浄水場の水需要パタ ーン予測、 下水処理場の 流入下水流量パタ ー ン予測、 発電プラ ン トや中央給電指 令所における電力需要パタ ーン予測、 地域冷暖房プラン 卜 の冷熱/温熱需要パタ ーン予測、 コ ジヱネプラ ン ト の 電カ 温熱ノ冷熱需要パタ ーン予測などである。 こ こで は、 浄水場の水需要パタ ーン予測を例に第 1 4 図の実施 例で構成と動作を説明する。
まず、 第 1 4 図全体の構成を説明する。 同図において、 浄水場で製造さ れた塩素注入済みの浄水が配水池 2 1 に 貯留される。 配水池 2 1 の浄水は配管 2 1 P 1 によ リポ ンプ 2 2 に送られ、 次に配管 2 1 P 2 によ り需要家に配 水される。 なお、 図示 しないが配管 2 1 P 2 には圧力と 流量と の制御のためにパルプを設置する。 ポンプ 2 2 の 蓮転データ である流量の時系列データ は、 予測運転制御 装置 8 0 の中の履歴パタ ーンデータ フ ア イノレ 7 1 F に順 次記憶される。 予測運転制御装置 8 0 はコ ンピュータ シ ステムであ り本発明の説明を容易にするために第 1 4 図 には処理の フ ロー図 を示してある。 また、 図中ネッ ト ヮ —ク と記載さ れてい る部分は第 4 図の実線 7 0 2 に相当 する。
流量信号 2 2 Q の時系列は、 1 時間 ご と の積算量を 2 2 Q と して値 Q ( t , i ) (こ こで、 t : 日 , i : 時間) を記憶する。 一方、 オペ レータ 1 0 1 はディ スプレーと キーボー ド 、 ま たは音声入出力装置な どから な る交信手 段 4 6 を通 じて、 天候、 曜 日 、 平均気温、 最高気温、 代 表時間での気温、 日 射量、 イ ベ ン ト の有無やその程度な ど を外乱信号 4 6 G と して、 予測運転制御装置 8 0 の中 の履歴パターンデータ フ ァ イル 7 1 F に入力する。 また、 交信手段 4 6 には通信線 4 6 I を通 じて外部よ り 前記天 候な どのデータ 信号を入力する こ と もでき る。 なお、 外 乱信号 4 6 G が自動計測器で計測される場合には 自動入 力 とする こ と は勿論である 。 この よ う に して、 流量信号 2 2 Q と 外乱信号 4 6 G は履歴ノヽ。 タ ー ンデー タ フ ァ イ ル 7 1 Fに順次記憶される。
履歴パタ ー ンデータ フ ァ イ ル 7 1 F の中から 自動的に ま たは交信手段 4 6 か ら の指示 7 1 S によ り 、 流量信号 2 2 Qの選択さ れたデータ 列 Q と外乱信号 4 6 Gの選択 さ れたデー タ 列 G と が各々学習用ニューラルネ ッ ト 7 1 に出力 さ れ る 。 こ れ らデータ Q と G を用いて学習が実行 さ れ、 実行結果 7 1 S 1 と 7 1 S 2 と が予測用二 ユーラ ルネ ッ ト 7 2 に 出力 さ れ る 。 予測用 二 ユ ー ラ ノレネ ッ ト 7 2 では実行結果 7 1 S 1 と 7 1 S 2 を受け る と 共に、 履歴パタ ー ンデータ フ ア イ ノレ 7 1 Fの中から予測に必要 な流量信号 2 2 Qのデータ 列 と 外乱信号 4 6 Gのデータ 列 と を 選択 し て予測 に使用す る 。 予測結果は予測信号 7 2 S と し て 交信手段 4 6 に表示す る と 共 に 、 運転制 御工程 7 5 に 出力す る 。 運転制御工程 7 5 は予測信号 7 2 S を受けて流量の 目 標値信号 7 5 S を ポンプ 2 2 に 出力 して流量を制御する 。 同時に、 目 標値の流量信号 7 5 S を交信手段 4 6 に表示 して、 必要に応じてォペレ ータ 1 0 1 の選択によ り実際の流量を補正する。 補正値 は再び流量信号 7 5 S と してポンプ 2 2 に出力する。
(以下余白)
次に、 第 1 4 図を用い本発明の動作を説明する。
まず、 履歴パタ ー ンデー タ を履歴パタ ーンデータ フ ァ ィ ル 7 1 Fへ記憶する方法につ いて説明する 。 履歴パタ ーンデータ は流量信号 2 2 Qと外乱信号 4 6 Gからなる。 ポンプ 2 2 の流量信号 2 2 Qを Q ( t , i ) (こ こで、 t : 日 , i : 時間) と す る と 、 当 日 ( t = 0 )の 1 時か ら 24 時まで( i = l 〜 2 4 )のデータ は、 Q ( 0 , 1 ) , Q ( 0 , 2 ) , Q ( 0 , 3 ) , · · ·, Q ( 0 , 2 4 ) と な る 。 これ ら の データ を履歴パタ ーンデータ フ ァ イル 7 1 Fに出力する。 こ れ を毎 日 繰 り 返す と 、 t = 0 , - 1 , - 2 , · · ·のデー タ が順次記憶さ れて い く 。 一方、 交信手段 4 6 を通 じて 入力 さ れ る 外乱信号 4 6 G を G ( t , j ) (こ こで、 t : 日 , j : 外乱の番号) とする と 、 当 日 ( t - 0 )の天候 - G ( 0 , 1 )、 曜日 - G (0 , 2 )、 平均気温 = G ( 0 , 3 )、 最高気温(又は最低気温) = G ( 0 , 4 )、 代表時間での気 温 = G (0 , 5 )、 日 射量 = G (0 , 6 )、 イ ベン ト の有無 = G ( 0 , 7 )や程度 = G (0 , 8 )な どが数値化さ れ、 こ れ ら のデー タ を履歴パタ ーンデータ フ ア イノレ 7 1 F に出 力する。
続 い て 、 学習工程 に おけ る 学習用 ニ ュ ー ラ ルネ ッ ト 7 1 の動作 を以下に説明す る。 学習用ニューラルネ ッ ト 7 1 では、 履歴パタ ーンデー タ フ ァ イ ル 7 1 Fの中か ら 選択さ れたデー タ を受ける。 このデータ 選択方法を以下 に説明す る 。 外乱信号 G ( t , j )につ いては第 1 4 図の 学習用 ニュ ー ラルネ ッ ト 7 1 のブロ ッ ク と 選択さ れた時 間 ( 日) t = t i, t z , t 3 , · · ·について、 t か ら過去 へさ かのぼって任意の 日数分を用いる。 S t ( t = t 1 , t 2 , t a , · · · )においては入力層 7 1 0 に G ( t , 1 ), · · ·, G ( t , 8 )を入力 し、 前日 については G ( t — 1 , 1 ), 一, 0 ( 1: — 1 , 8 )を入カする。 ただし、 天候 0 ( 0 , 1 )、 曜 日 G (0 , 2 )イ ベン ト の有無 G (0 , 7 )や イ ベン トの程度 G ( 0 , 8 )については、 記号化または数 値化を行なっ て入力する。 他方、 流量 Q ( t , i )につい ては 日 t i t - t i , t 2 , t a , ···)における 2 4時間分 の 流量 Q ( t , 1 ) , · · · , Q ( t , 2 4 ) は教師信号層 7 5 0 に入力する 。 一方、 入力層 7 1 0 に対しては前日 ( t = - l )の値 Q ( t — 1 , 1 ) , · · · , Q ( t - 1 , 2 4 ) と前 日以前の値を過去へさ かのぼって任意の日数分 P を 入力する 。 こ の 日数 P が多ければ予測精度が向上する が、 実用的には前日 ( t - - 1 )のデータ でよ い。 また、 過去の q個からなる複数時点を t t , t 2 , t 3 , · · ·, t とする と 、 学習するパタ ー ンデータ を時刻 t i i - 1 , 2 , ···, t ¾)について入力する。
次に、 予測用ニューラルネ ッ ト 7 2 による予測工程を 説明する 。 予測用ニューラルネッ ト 7 2 の構成は第 6 図 に示 したも の と 同様である。 第 1 4 図に示したよ う に、 予測用ニューラルネ ッ ト つ 2では学習用ニューラルネッ ト 7 1 での学習結果、 すなわち、 重み係数値 Wjiの分布 に基づいて需要パタ ーンを予測するものである。 学習の 結果得 られた重み係数 Wji ( 3 ト 2 )および 2 <- 1 ) の値が予測用ニューラルネッ 卜 7 2 に出力される。 これ ら を用いて予測を行な う 。 まず入力層 7 1 0 に入力層パ タ ー ン と して、 当 日 ( t = 0 ) を基準に設定 し た変数値 Yi (G の当 日 予想値と、 G と Q と の前 日 、 前々 日 の値) を入力層 7 1 0 に入力する 。 次に、 ( i )〜(iv)式を用い た計算によ り 出力層 7 3 0 に需要パタ ーンが出力層パタ ーン と して出力 される 。 需要パターンと は第 1 4 図中の 出力層 7 3 0 の Q ( 0 , i ) * (ただし i = l 一 2 4 )であ る。 本実施例では、 こ の計算を 「予測」 と いう 。 予測に よ る計算値は、 学習 し たパタ ーン に依存する ので、 学習 するパタ ー ンは異なる時刻において代表的なパタ ーン、 あるいは注目すべき異常時のパターンでなければな らな いこ とは前述した通りである。
こ の予測操作は、 当 日 の運転開始前 (普通は前日) に 行な う 。 すなわち、 前々 日 までの Qと G と のノヽ。タ ーン を 2 日分と、 当 日 の外乱因子の予測値と を入力する と、 当 日の需要パターンがニューラルネジ 卜によ り予測される。 運転制御工程 7 5 では、 こ の需要パタ ーン Q ( 0 , i ) * (ただし i = l 一 2 4 )の信号 7 2 S を受けて、 流量の 目標値信号 7 5 S をポンプ 2 2 に出力 して流量を制御す る。 需要パタ ーン Q ( 0 , i ) * は本実施例では 1 時間毎 の流量である が、 この時間単位は任意に設定でき る。 勿 論、 時間間隔が小さ ければ予測精度は向上する。 設定し た時間間隔 (本実施例では 1 時間) が長いために短い時 間 (例えば 1 分間) の流量を予測できない場合には、 数 学的な補間によ り予測する。 同時に、 目標値 (予測結果) の流量信号 7 5 S を交信手段 4 6 に表示して、 必要に応 じてオペ レータ 1 0 1 の選択によ り実際の流量を補正す る 。 例えば、 予測流量に対して比例係数 を乗 じ、 定 数 Κ 2 を加算するな どの補正を行ない、 こ の補正値を再 び流量信号 7 5 S と してポンプ 2 2 に出力 し、 この流量 だけポンプ 2 2 が水を供給する。
第 1 5 図によ り更に刖の実施例を説明する。 なお、 本 実施例は下水処理に関するものである。
本実施例は、 下水処理場の①流入水の物理的 · 化学的 · 生物的特性、 ②プラ ン トの状態量、 ③季節と時間、 ④プ ラ ン ト状態の評価量、 ⑤プラン ト操作量、 以上①②③④ ⑤の過去履歴をニューラルネ ッ トに学習させて、 ①②③ と④と に関する知識、 な らびに①②③と⑤と に関する知 識、 を 自動的に獲得する と共に、 学習済みのニューラル ネ ッ トの連想作用 によ り、 プラン 卜の運転操作 (制御含 む) をガイダンスするものである。
実行工程は、 (1 )学習用神経回路モデル (学習用ニュ 一ラルネ ッ ト) によ る学習工程、 (2)知識獲得工程、 (3) 知識診断工程 7 4、 (4 )推論工程、 (5 )学習済み二ユーラ ルネ ッ ト (予測用ニュ ーラルネ ッ ト) の連想予測工程、 (6)プラン 卜運転操作制御工程からなる。
第 1 5 図の実施例で構成と動作を説明する。 まず、 下 水処理プロ セ スの フ ロ ーを以下に説明する。 最初沈殿池 9 では、 流入下水中の浮遊物質の一部が重力沈降によ り 除去さ れる。 曝気槽 1 5 には最初沈殿池 9 から越流した 下水 と返送汚泥管 1 6 P 1 か ら の返送汚泥が流入する。 曝気槽 1 5 にはブ ロ ワ一 1 7 Z か ら制御バルブ 1 7 X , 1 7 Y を経て空気が供給され、 下水と返送汚泥が混合撹 拌さ れる。 返送汚泥 (活性汚泥) は供給された空気中の 酸素を吸収 し、 下水中の有機物が分解されて最終沈殿池 1 6 に導かれる。 最終沈殿池 1 6では活性汚泥の重力沈 降によ り活性汚泥が沈降し上澄水は放流される。 最終沈 殿池 1 6 内に沈降した活性汚泥は引き抜かれて、 一部は 余剰汚泥と して余剰汚泥管 1 6 P 2 とポンプ 1 6 C 2 に よ り排出さ れる。 排出されなかっ た残 り大部分の活性汚 泥は、 返送汚泥と して返送汚泥ポンプ 1 6 C 1 から返送 汚泥管 1 6 P 1 を通して曝気槽 1 5 に返送される。
次 に計測器につ いて説明す る 。 最初沈殿池 9 、 曝気 槽 1 5、 最終沈殿池 1 6 には各々計測器 9 M, 1 δ M , 1 6 Mが設置さ れる。 計測項目 は、 流入下水量、 浮遊物 質濃度、 化学的酸素要求量、 Ρ Η、 窒素濃度、 アンモニ ァ濃度、 硝酸性窒素濃度、 亜硝酸性窒素濃度、 リ ン濃度、 溶存酸素镄度、 汚泥界面高さ ( S V I : Sludge Volume Index, な ど)、 な らびに微生物や浮遊性物質の画像情報 などである。
続いて、 予測蓮転制御装置 8 0 の構成を説明する。 予 測運転制御装置 8 0 はコ ン ピュータ システムであ り本発 明の説明 を容易にする ために第 1 5 図には処理の フ ロ ー 図 を示してあ る 。 なお、 図中ネ ッ ト ワーク と記載されて い る部分は第 4 図の実線 7 0 2 に相当する多数の配線 (または情報の連絡経路) を示す。
履歴パ タ ー ンデー タ フ ァ イ ル 7 1 F は、 ①計測器 9 M で計測した流入水特性、 ②計測器 1 5 M, 1 6 Mで計測 したプラ ン ト状態量、 ③季節と時間、 ④計測器 1 5 M, 1 6 M の計測量の一部であ る プラ ン ト状態評価量、 ⑤ ポ ン プ 1 6 C 2、 返送汚泥ポン プ 1 6 C 1 、 ブ ロ ワ一 1 7 Z、 制御バルブ 1 7 X, 1 7 Y な どのプラ ン ト操作 量、 以上①〜⑤の時系列データ が記憶される。
学習用ニューラルネ ッ ト 7 1 には、 履歴パタ ーンデ一 タ フ ア イゾレ 7 1 F の中から 自動的にまたは交信手段 4 6 からの指示 7 1 S によ り 、 ①流入水特性の選択されたデ ー タ 列 D l、 ②プラ ン ト状態量の選択さ れたデー タ 列 D 2、 ③季節と時間の選択されたデータ列 1) 3、 ④プラ ン ト状態評価量の選択さ れたデータ列 D 4、 ⑤プラン 卜 操作量の選択されたデータ列 D 5 が各々 出力される。 な お、 各データ 列は実際には複数の項目 を含むが、 本実施 例では説明を容易にする ため代表の記号 D 1〜D 5で表 すも の とする。 学習用ニューラルネ ッ ト 7 1 ではデータ D 1 , D 2 , D 3 , D 4 , D 5 を用いて学習が実行され、 実行結果 7 1 S 1 と 7 1 S 2 と が、 知識獲得工程 7 3 と 予測用ニューラルネッ 卜 7 2 と に出力される。
知識獲得工程 7 3 では 7 1 S 1 と 7 1 S 2 に基づいて 前記①②③ と④、 または①②③と⑤に関する知識を記号 または言葉に変換する 。 知識診断工程 7 4では、 知識獲 得工程 7 3 で得た知識を交信手段 4 6 から の指示 (図示 省略) に よ り 知識候補べ一 ス 6 0 B ま た は知識ベー ス 6 O Aに格納する。 推論機構 6 1 は知識ベース 6 O Aと、 あ ら か じ め入力 し た知識ベース 6 0 C を受けて推論を実 行し、 運転制御工程 7 5 に信号 6 1 S を出力する。
一方、 予測用 ニュ ー ラルネ ッ ト 7 2では屨歴パタ ーン デー タ フ ァ イ ル 7 1 F の中 か ら予測に必要なデータ を選 択 して予測に使用す る 。 予測結果は予測信号 7 2 S と し て交信竽段 4 6 に表示す る と共に、 運転制御工程 7 5 に 出力する。
運転制御工程 7 5 は予測信号つ 2 S と信号 6 1 S と を 受け、 信号 7 5 S を 出力 して⑤ポンプ 1 6 C 2、 返送污 泥ポンプ 1 6 C 1 、 ブロ ワ一 1 7 Z、 制御バルブ 1 7 X, 1 7 Y な どのプラ ン ト操作量 を制御する。 同時に、 制御 目標値信号 7 5 S を 交信手段 4 6 に表示 して、 必要に応 じ てオペ レータ 1 0 1 の選択に よ り実際の制御量を補正 する。 補正値は再び出力する。
次に、 第 1 5図を用い本発明の動作を説明する。
まず、 履歴パタ ー ンデータ フ ァ イル 7 1 Fへデータ を 記憶す る方法につ いて説明する。 時刻 t = 0 の履歴パタ ー ン デー タ D l (0 )〜 D 5 ( 0 ) を 履歴パ タ ー ンデー タ フ ァ イ ル 7 1 F に記憶す る 。 これ を繰 り 返 して t = 0 , - 1 , - 2 , · · · のデー タ を順次記憶す る 。 時間間隔は本 実施例では一例 と して 1 時間の場合を説明する が、 こ の 時間設定によ り本発明の実施は制約を受けない。 続いて、 学習工程における学習用 ニュ ーラルネ ッ 卜 7 1 の動作を以下に説明する。 学習用ニューラルネ ッ ト 7 1 では、 履歴パタ ーンデータ フ ァ イル 7 1 F の中から 選択さ れたデータ を受けて学習を実行する。 こ のデータ 選択と学習方法を以下に説明する。
D 1 〜 D 5 について任意の時刻 t = を基準に過去 にさ かのぼって 一 1 , t! - 2 , ···をまず学習する。 同様に、 t t z f t z ^ t i)を基準に して t 2— 1 , t z 一 2 , · · · の ノ、。 タ ー ンデー タ を学習 し 、 合計 q 個のパ タ ー ンデータ を学習する。 q個のパタ ー ン の選択は過去 の代表的なパタ ーンが望ま しい。 学習はこれら一群のデ ータ を入力用データ と教師用データ と に分けて行なう 。 第 1 5 図に示すよ う に、 入力層 7 1 0 には任意の時刻 t ( t = t! , t ! , · · ·)における D l ( t )〜 D 3 ( t )と、 時刻 t か ら過去に さ かのぼっ て D 1 ( t — 1 )〜 D 5 ( t 一 1 )を順次入力する 。 こ こ で、 D 4 ( t — 1 ) , D 5 ( t 一 1 )が追加さ れ る こ と に注意されたい。 以下 t = t 一 2 , t 一 3 , · · · に つ い て も同様である 。 一方、 教師層 7 5 0 には、 D 4 ( t ) , D 5 ( t )を入力する。 学習は、 - 入力層 7 1 0、 中 間層 7 2 0、 出力層 7 3 0、 比較層 7 4 0、 教師層 7 5 0 から なる構成の学習用ニューラル ネジ ト 7 1で行なう 。
学習用ニューラルネ ッ ト 7 2 では、 前記①②③に対応 して、 未知の前記④⑤を予測するものである。 このため に、 まず入力層 7 1 0 に入力層パタ ー ンと して、 t = 0 を基準に設定 し た変数値 Yi (D l ( 0 )〜 D 3 ( 0 ))と、 t =- 1 , - 2 , ·· ·を基準に設定した変数値 Yi(D l ( i ) 〜 D 5 ( i ) , i =- 1 , - 2 , · ' · )を入力層 7 1 0 に入力 する 。 こ の変数値 Yiは第 1 図に示すよ う に、 (1)現時点 で既知の①②③、 (2)過去 ( t = - 1 , - 2 , · · · )におけ る①〜⑤である。 これ らは全て実鑌値あるいは既知のデ ータ である こ と に注意されたい。 これ らの値に基づいて 前述の( i )〜( )式の計算を実行し、 未知の④プラ ン ト 状態評価量(処理水質) D 4 *(0 )と⑤プラ ン 卜操作量(返 送 /余剰汚泥量 , 曝気空気量) D 5 * ( 0 ) と を 出力層 7 3 0 に出力する。 前記④については交信手段 4 6 にガ ィ ダンス表示 し、 ⑤については制御信号 7 2 S を運転制 御工程 7 5 に出力する。
続いて運転制御工程 7 5 を以下に説明する。 蓮転制御 工程 7 5 では、 D 5 *(0 )の信号 7 2 S と推論機構 6 1 の結果信号 6 1 S と を受けて、 まず両者の整合性を調べ る 。 信号 7 2 S が 6 1 S と矛盾 しなければ、 プラン ト操 作量の 目 標値 と し て信号 7 5 S を ポン プ 1 6 C 2、 返 送汚泥ポ ン プ 1 6 C 1、 ブ ロ ワ一 1 7 Z、 制御バルブ 1 7 X , 1 7 Y な どに出力する 。 逆に矛盾すれば交信竽 段 4 6 を通 してオペ レータ 1 0 1 に報知し、 修正を加え る 。 なお、 制御頻度は本実施例では 1 時間毎であるが、 こ の時間単位は任意に設定でき る。 勿論、 時間間隔が小 さ ければ予測精度は向上する。 設定した時間間隔 (本実 施例では 1 時間) が長いために短い時間 (例えば 1分間) のプラ ン ト操作量を予測できない場合には、 数学的な補 間によ り予測する 。 同時に、 目標値 (予測結果) のプラ ン ト操作量目標値信号 7 5 S を交信手段 4 6 に表示して、 必要に応 じてオペ レータ 1 0 1 の選択によ リ実際の操作 を補正する。
第 1 6 図に別の実施例を示す。
本実施例は、 プロセスの観測量に基づいて先見的モデ ルによ り制御目標値を出力する方法に関する。 本実施例 での先見的モデルと は、 対象プロセスについて予め既知 のプ ロ セスモデルや制御モデルをいう 。 本実施例は、 先 見的モデルから出力される誤差を予測するための 「誤差 予測モデル」 を 自動生成する方法と、 先見的モデルのパ ラ メータ を適正化するための Γパラ メータ調整モデル j を 自動生成する方法と を含む。 雨モデルは共にオペレー タ が補正するものである こと から、 本実施例では両モデ ルを 「オペ レータ モデル」 という 。 まず、 前者の実施例 を第 1 6図を用いて説明後、 後者を説明する。
第 1 β 図は浄水プロセスの凝集剤注入制御に適用 した 実施例であ る。 まず、 浄水場のフ ローを説明する。 同図 において着水井 9 に河川や湖沼 (図示せず) から原水が 導かれる。 急速混和池 1 0 は着水井 9 の水を受けて、 凝 集剤タ ン ク 1 1 の凝集剤が凝集剤注入ポンプ 1 2 で注入 され、 撹拌翼 1 4 が撹拌機 1 3 によ り撹拌される。 フ ロ ッ ク形成を促進するアル力 リ剤が注入される場合もある が省唣する。 フ ロ ッ ク形成池 1 5 は急速混和池 1 0 の水 を受けて フ ロ ッ ク (微粒子の凝集塊) を成長させる。 フ ロ ッ ク形成池 1 5 (通常複数池あるが本実施例では省略 する) に撹拌パドル 1 7 Aが設置され緩やかに回転する。 フ ロ ッ ク は沈殿池 1 6 で沈降 して上澄み液が濾過池 1 7 で滤過される。 なお、 殺菌のために塩素容器 2 5 の塩素 が塩素注入機 2 6 によ り着水井 9 と浄水池 (図示せず) に適量注入される。
次に計測器について説明する。 原水の水質を計測する ために、 着水井 9 に計測器 9 Mが設置される。 計測項目 は、 水温、 濁度、 アルカ リ度、 p H、 電気伝導度、 残留 塩素瀵度、 塩素要求量、 水温、 水位などである。 フ ロ ッ ク 形成池 1 5 に は計測器 1 5 Mが設置さ れる 。 計測器 1 5 Mは前記計測器 9 Mで計測する項目 に加えて水中力 メ ラな どの水中映像撮像手段や画像処理手段を含む。 沈 殿池 1 6 には計測器 1 6 Mを設置する。 必要に応じて急 速混和池 1 0 に 1 5 Mと 同様の計測器 1 0 Mを設置し、 濾過池 1 7 に計測器 1 7 Mを設置する 。 これ ら の計測項 目 は、 前記 9 M, 1 5 Mと 同様である。 以上の計測項目 と 、 操作因子 (凝集剤注入ポンプ 1 2、 撹拌機 1 3、 撹 拌パ ド ル 1 7 A ) 、 な ら び に オペ レ ー タ モデル構成量 (後述する予測誤差と先見的モデルのパラ メータ を含む) を本実施例では観測量という 。
続いて、 運 ¾制御装置 8 0 の構成と動作の概要を説明 する 。 運転制御装置 8 0 はコ ン ピュータ システ ムであ り 本発明の説明 を容易 にするために第 1 6 図には処理のフ 口 一図を示 してあ る 。 先見的モデル計算工程 6 5 は、 観 測量 (計測器 9 M , 1 5 M , 1 6 M、 凝集剤注入ポンプ 1 2、 撹拌機 1 3、 撹拌パドル 1 7 A、 予測誤差 E n(t)、 先見的モデルのパラ メータ Pi) のデータ を受けて信号 S cを制御量計算工程 6 7 に出力する 。 他方、 履歴パタ — ンデータ フ ァ ィル Ί 1 Fは観測量のデータ を順次記憶 する 。 オペ レータ モデル 7 3では、 まず学習用二ユーラ ルネ ッ 卜 7 1 が履歴パタ ーンデータ フ ア イノレ 7 1 Fの選 択されたデータ列を受けて学習を行なう 。 予測用ニュー ラルネ ッ ト 7 2 は学習用ニューラルネ ッ ト 7 1 から信号 7 1 S 1 と 7 1 S 2 を受けて信号 E n*( t ) を出力する。 制御量計算工程 6 7 は信号 En*( t )ま たはオペ レ ータ 1 0 1 の補正量 En ( t ) と、 信号 Scと を受けて S tを出 力する 。 蓮転制御工程 7 5 は S tを受けて信号 7 5 S を 出力 し、 凝集剤注入ポンプ 1 2、 撹拌機 1 3、 撹拌パド ル 1 7 A を制御する 。 交信手段 4 6 はオペ レータ 1 0 1 の介在によ り履歴パタ ーンデータ フ ァ イル 7 1 F、 先見 的モデル計算工程 6 5、 学習用ニューラルネ ッ ト 7 1 、 予測用ニューラルネ ッ ト 7 2、 および運転制御工程 7 5 と交信する 。 なお、 学習用ニューラルネ ッ ト 7 1 、 予測 用ニューラルネ ッ ト 7 2 の構造は第 3 図、 第 6 図に各々 示した通りである。
次に、 運転制御装置 8 0の動作を詳細に説明する。
まず、 先見的モデル計算工程 6 5 は観測量のデータ を 受けて フ ィ ー ド フ ォ ワ ー ド制御モデル (以下 Γ F Fモデ ル J と 唣称す る) 6 5 F と フ ィ ー ドノ ッ ク制御モデル (以下 「 F B モ デル」 と 略称す る ) 6 5 B に信号 を 入 力 す る 。 こ こ で 、 F F モ デル 6 5 F お よ び F B モデル 6 5 B は先見的モデルの例示であって、 フィ ー ドバッ ク / フ ィ ー ド フ ォ ワ ー ド以外の先見的モデルでもよい こ と は言 う までも な い。 F Fモデル 6 5 F および F B モデル 6 5 B は、 観測量 Xi ( t ) を得て凝集剤注入制御のため の信号を各々 出力する。 F Fモデル 6 5 Fの一般式は次 式で示される。
S f = f f (Xi( t ), Pi) (xi)
こ こで、 S f : F Fモデル 6 5 F の出力信号, Xi( t ) : 時刻 t の観測量, Pi : F Fモデルのパラ メータ である。
i)式の具体的数式モデル例は次式である。
S f = P, · (Xx( t ) 2 + P3 (χϊ)
こ こで、 X i ( t ) : 原水の濁度, Ρ , P 2 , P 3 : ノ、。ラ メ ータである。
F Bモデル 6 5 Bの一般式は次式で示される。
S b = f b(Xi( t ) , Pi) (x5)
こ こで、 S b : F B モデル 6 5 B の出力信号, Xi( t ) : 時刻 t の観測量, Pi : F B モデルのノ、。ラ メータである。
(χϊ)式の具体的数式モデル例は次式である。
S b = P! · ( X2 ( t ) - X2 ( t 一て )) '.' " )
こ こ で、 X 2 ( t ) : 時刻 t の沈殿池出口濁度, X2 ( t — て ) : 時刻 t 一 て の沈殿池出口濁度, P i : ノ、。ラ メ 一タ で ある。 ϊ) (xi 式の右辺には ( t )と X2 ( t )だけ しか例示 さ れていないが、 他の観測量を用いてよいこ とは言う ま でもない。
モデル出力値計算工程 6 5 Aは信号 S f と S bを受けて 信号 S cを制御量計算工程 6 7 に出力する 。 こ の一般式 は次式で示される。
S c= f c( S f , S b) (xv)
(x 式の具体的数式モデル例は次式である。
Sc= S i+ S b (xvi)
したがっ て、 先見的モデル 6 5 は観測量 X i ( t ) ( i = l 〜 n )に基づいて凝集剤注入量を予測する信号 S cを出 力する 。 こ の予測値 S cと過去の実鑌値 (オペ レータ の 補正値 E n ( t )を加算した値でぁ リ 、 先見的モデルの予 測よ り適正である こ と に注意されたい) と には食違いが 生ずる ので、 こ の Γ予測誤差 j (オペ レータ の補正量) をオペ レータ の代わ り に二ユーラノレネッ 卜で出力する。 次に、 観測量を履歴パタ ーンデータ フ ァ イル 7 1 Fへ 記憶する方法について説明する 。 時刻 t = 0 の観測量 XI ( 0 ) ( i = 1 〜 ! 1 ) を 履歴ノヽ。タ ー ンデー タ フ ァ イ ル 7 1 ?に記憶する。 これを繰リ返して = 0, - 1, - 2, • · ·の X i ( 0 )を順次記憶する。 時間間隔は例えば 1 時間 であ る がこ の間隔設定によ り本発明の実施は制約を受け ない。
続いて、 オペ レータ モデル 7 3 を以下に説明する。 ま ず学習工程における学習用ニューラルネ ッ ト 7 1 の動作 を以下に説明する。 学習用ニューラルネッ ト 7 1 におけ るデータ 選択と学習方法を説明する。 Xi(t )(i = l〜 n)について任意の時刻 t = を基準に過去にさ かのぼ つ て 一 1 , t x - 2 , · · · を まず学習する。 一 kの k値は任意に選べる 。 同様に、 t - t z i t z ^ t i)を基 準に して t 2— 1 , t 2 - 2 , · · ·のパタ ーンデータ を学 習 し、 合計 q個のパタ ーンデータ を学習する。 q個のパ タ ー ンの選択は過去の代表的なパタ ーンが望ま しい。 時 刻 t iは任意の時刻であ る ので常時学習すれば状況変化 に対応しやすく なる効果がある。
学習はこれ ら一群のデータ を入力用 と教師用データ と に分けて行な う 。 入力用データ とは観測量の中で凝集剤 注入量予測誤差に影饗する因子を指し、 教師用データ と は予測誤差 En(t )を指す。 また、 入力用データ はオペ レータ が判断根拠とする因子であ り、 教師用データ は才 ペ レータ が操作する因子 (本実施例では凝集剤注入量の 先見的モデルの予測値と実測値と の予測誤差 En(t ))で あ る 。 入力用デー タ の値を Xi(t )(i = l 〜!! 一 1 )と し 、 便宜的に教師用データ が; Xn(t )すなわち予測誤差 En(t )だけである とする 。 En(t )はオペレータ が先見 的モデル予測値に対 して補正した量である こ と に注意さ れたい。 なお、 これ ら入出力データ の組合せは 目的に応 じて任意に設定できる。
教師層 7 5 0 に は時刻 t = t での予測誤差 E n ( t ) を入力する 。 入力層 7 1 0 には XiCt ^ f i - l n — 1 ) と 、 t - t i — l , t ! - 2 , · · · に おけ る Xi i t J ( i = l 〜 ! i )を入力する。 後述するよ う に学習は、 入力 層 7 1 0、 中間層 7 2 0、 出力層 7 3 0、 比較層 7 4 0、 教師層 7 5 0 か ら な る構成の学習用ニ ュ ー ラルネ ッ ト 7 1 で実行する。 こ の こ と は、 時刻 t i^の予測誤差 がその時点と過去と の観測量、 および過去の予測誤差の 影響を受ける こ と を模擬するものであ る。 学習は、 任意 の時刻 t (ただし t - t i , t 2 , · · · )において同様に行 なう。
次に、 予測用ニューラルネッ ト 7 2の動作を説明する。 予測用ニューラルネ ッ ト 7 2 では、 まず入力層 7 1 0 に 入力層パタ ーン と して、 現時点( t = 0 )を基準に設定し た変数値 Yi ( i = l 〜 P ) を入力層 7 1 0 に入力する。 これらは全て実績値あるいは既知のデータである こ と に 注意されたい。 これらの値に基づいて前述の( i )〜( ) 式の計算を実行し、 t = 0 の予測誤差 En* ( 0 )が出力層 7 3 0 か ら 出力 さ れる 。 つ ま リ オペ レ一タ の予測誤差 (補正量 En(0 ))に代わって En* (0 )を出力する。
制御量計算工程 6 7 は、 信号 En* (0 )と信号 S cを受 けて S tを(j)式で計算して出力する。
St= S c+ En*( 0 ) (xw)
つ ま り 、 先見的モデルの予測値 S cにオペ レータ モデ ル 6 3 (ニュー ラルネ ッ ト) の予測誤差 E n * ( 0 )を加え た値を用 いる 。 予測誤差 En* ( 0 )はオペ レー タ の過去の 運転パタ ーン を学習しているので、 (χνή)式によ リオペレ タ に匹敵する制御を行なえる。
(以下余白)
続いて運転制御工程 7 5 を以下に説明する。 運転制御 工程 7 5 では信号 S tを受け信号 7 5 S を出力 して、 凝 集剤注入ポンプ 1 2、 携拌機 1 3、 撹拌パ ドル 1 7 A を 制御する。 制御頻度は本実施例では 1 時間毎であるが、 こ の時間単位は任意に設定できる。 勿論、 時間間隔が小 さ ければ予測精度は向上する。 設定した時間間隔 (本実 施例では 1 時間) が長いために短い時間 (例えば 1分間) を予測できない場合には、 数学的な補間を行なう 。
交信手段 4 6 はオペ レータ 1 0 1 の介在によ り履歴パ タ ーンデータ フ ァ イ ル 7 1 F の フ ア イ リ ン グ方法、 先見 的モデル計算工程 6 5 のモデル変更、 学習用ニューラル ネ ヅ ト 7 1 および予測用ニューラルネ ッ ト 7 2 の経過と 結果の表示、 および運転制御工程 7 5 の信号 7 5 S の補 正を行なう 。
第 1 6 図の実施例の効果は、 先見的モデルの誤差を二 ユーラルネ ッ 卜の実績学習によ り 、 人間の介在な く常に 少な く する こ と ができ、 かつ、 従來法に比べ制御精度を 向上させることができる。
以上説明 した第 1 6 図の実施例では、 先見的モデルの 誤差 (オペ レータ補正量) を予測するための誤差予測モ デルを、 ニューラルネ ッ トで自動生成する方法を説明 し た。 こ こで、 オペ レー タ モデル 6 3 は誤差予測モデルで め つ に 。
次に、 オペ レータ モデル 6 3 において、 先見的モデル のパラ メ ータ を適正化するための Γパラ メ一タ調整モデ ル J を 自動生成する方法を説明する。 こ の実施例は、 ォ ペ レータ が先見的モデル計算工程 6 5 の出力 S cを見て、 F F モデル 6 5 F および F B モデル 6 5 B のパラ メータ Piを調整す る作業を人工的に行な う こ と に匹敵する 。 第 1 6 図の実施例と の違いは、 教師信号に先見的モデル のパラ メ ータ Piを入力 し、 Piの適正値を予測する こ と である。 この実施例を第 1 7 図で説明する。
第 1 7 図の実施例では、 F Fモデル 6 5 F および F B モデル 6 5 B のノ、。ラ メ ー タ Piがオペ レータ 1 0 1 によ り 交信手段 4 6 を通 して設定される 。 設定さ れた Pi値 は、 先見的モデル計算工程 6 5 か ら観測量の一つ と し てノヽ。ラ メ ー タ P i (信号 6 5 S ) が履歴パタ ーンデー タ フ ァ イ ル 7 1 F に入力さ れて記憶する。 学習用二ユーラ ルネ ッ ト 7 1 の教師信号と して、 このオペ レータ が与え た実鑌 Pi値を用 い、 第 1 6 図の実施例と 同様の手順で 過去の実縝を学習す る 。 予測用 ニ ューラルネ ッ ト 7 2 か ら は こ の Pi値の予測値 Pi*が出力され、 F Fモデル 6 5 Fおよび F B モデル 6 5 B のノヽ。ラ メ一タ Piと して、 オペ レータ の介在な く 使用する。 F Fモデル 6 5 Fおよ び F B モデル 6 5 B は予測値 Pi*を用いて(xi)〜(xi 式 の計算を行ない、 信号 S f と S bを各々 出力する。 モデル 出力値計算工程 6 5 A は信号 S f と S bを受けて信号 S c を運転制御工程 7 5 に出力する。 蓮転制御工程 7 5 は信 号 S cを受け信号 7 5 S を 出力 して、 凝集剤注入ポンプ 1 2、 携拌機 1 3、 撹拌パドル 1 7 Aを制御する。 第 1 7 図の実施例の効果は、 先見的モデルの調整可能 なパラ メ ータ を ニューラルネ ッ トの実績学習によ り、 人 間の介在な く 常に適正に設定する こ と ができ、 かつ、 従 来法に比べ制御精度を向上させることができる。
以上、 本発明を浄水プロセスを実施例に説明したが、 一般の他プロセスにも適用できる ことは會う までもない。
第 1 8 図の実施例は、 まず、 過去の複数時点での①外 乱、 ②プロセス状態量、 ③評価量、 ④プロセス操作量を、 予め設定したメ ンバーシップ関数でメ ンバーシ ッ プ値に 変換し、 こ の変換値をニューラルネ ッ ト に入力 して①〜
④の関係を学習する 。 学習済みニューラルネッ トの重み 係数分布から、 確信度付き フ ア ジィルールを導出し、 こ れに基づき推論を実行し運転操作を支援または制御する ものである。 この実行工程は以下のと.おりである。
( 1 ) メ ンバーシ ッ プ闋数で①〜④の値を メ ンバーシ ッ プ値に変換
( 2) 学習用ニューラルネ ッ トによる学習工程
( 3 ) 学習済みニューラルネ ッ ト からの確信度付き フ ァ ジィルール獲得工程
(4 ) フアジィルール診断工程
(5) フ ァジィ推論工程
( 6 ) 学習済みニューラルネ ッ トの予測工程
( 7) プロセス運転操作制御工程
からなる。
本発明を下水処理プロ セ スに適用 した実施例を第 1 8 図を用いて説明する。
下水処理プロ セスの構成と動作を以下に説明する。 最 初沈殿池 9 では、 流入下水中の浮遊物質の一部が重力沈 降によ り 除去さ れる。 曝気槽 1 5 には最初沈殿池 9 から 越流 した下水と返送汚泥管 1 6 P 1 からの返送汚泥が流 入する 。 曝気槽 1 5 にはブロ ワ一 1 7 Z から制御バルブ 1 7 X , 1 7 Y を経て空気が供給され、 下水と返送汚泥 が混合撹拌さ れる。 返送汚泥 (活性汚泥) は供給された 空気中の酸素を吸収し、 下水中の有機物が分解されて最 終沈殿池 1 6 に導かれる 。 最終沈殿池 1 6 では活性汚泥 の重力沈降によ り活性汚泥が沈降し上澄水は放流される。 最終沈殿池 1 6 内に沈降した活性汚泥は引き抜かれて、 大部分の活性汚泥は、 返送汚泥 と し て返送汚泥ポンプ 1 6 C 1 か ら返送汚泥管 1 6 P 1 を通 して曝気槽 1 5 に 返送さ れる。 残 り は余剰汚泥 と して余剰汚泥管 1 6 P 2 と余剰汚泥ポンプ 1 6 C 2 によ り排出される。
次 に計測器について説明す る 。 最初沈殿池 9、 曝気 槽 1 5、 最終沈殿池 1 6 には各々計測器 9 M , 1 5 M , 1 6 Mが設置される。 計測項目 は、 流入下水量、 浮遊物 質濃度、 化学的酸素要求量、 P H、 窒素濃度、 アンモニ ァ漉度、 硝酸性窒素濃度、 亜硝酸性窒素瀵度、 リ ン濃度、 溶存酸素濃度、 汚泥界面高さ ( S V I : Sludge Volume Index, な ど)、 な らびに微生物や浮遊性物質の画像情報 などである。
続いて、 予測運転制御装置 8 0 の構成を説明する。 予 測蓮転制御装置 8 0 はコ ン ピュータ システムであ り本発 明の説明 を容易にするために第 1 8 図には処理のフ ロー 図 を示 してあ る 。 まず、 履歴パタ ーンデータ フ ァ イル 7 1 F は計測器 9 M, 1 5 M , 1 6 Mのデータ を順次記 憶 し、 選択さ れたデー タ 列を メ ンバーシ ッ プ変換工程 6 9 に出力する 。 メ ンバーシ ッ プ変換工程 6 9 は①〜④ の値を メ ンバーシ ッ プ値に変換し この信号を学習用ニュ 一ラルネ ッ ト 7 1 に出力する 。 予測用ニューラルネ ッ 卜 7 2 は学習用ニ ューラルネ ッ ト 7 1 から信号 7 1 S 1 と 7 1 S 2 を受けて信号 7 2 S を出力する。 一方、 フ ア ジ ィ ルール獲得工程 7 3 は学習用ニューラルネッ ト 7 1 か ら信号 7 1 S 1 と 7 1 S 2 を受ける。 フ ア ジィ ルール診 断工程 7 4 は交信手段 4 6 からの信号と フ ア ジィ ルール 獲得工程 7 3 から信号を受け、 フ ア ジィ ルール候補べ一 ス 6 0 B またはフアジィルールべ一ス 6 0 Aに記憶する。 フ ア ジィ 推論機構 6 1 は フ ア ジィ ルールベース 6 0 A , 6 0 C か ら の 信号 を 受 けて運転制御工程 7 5 に信号 6 1 S を出力する。 運転制御工程 7 5 は信号 6 1 S と信 号 7 2 S を受けて信号 7 5 S を出力 し、 余剰汚泥ポンプ 1 6 C 2 , 返送汚泥ポンプ 1 6 C 1、 ブロ ワ一 1 7 Z , 制御バルブ 1 7 X, 1 7 Y を制御する。 交信手段 4 6 は オペ レータ 1 0 1 の介在によ リ履歴パターンデ一タ フ ァ ィ ル 7 1 F、 学習用ニュー ラルネ ッ ト 7 1 、 予測用ニュ — ラルネ ッ ト 7 2、 運転制御工程 7 5 およびフ ア ジィ ル ール診断工程 7 4 と交信する。 なお、 図中 「ネ ッ ト ヮー ク J と記載されてい る部分は第 4 図に示した実線 7 0 2 に相当する多数の配線 (または情報の連絡経路) を示す。 次に、 予測運転制御装置 8 0の動作を説明する。
履歴パ タ ー ンデー タ フ ァ イ ル 7 1 F は、 ①計測器 9 M で計測した外乱特性、 ②計測器 1 5 Mで計測したプロセ ス状態量、 ③計測器 1 6 Mで計測したプ ロ セ ス評価量、 ④余剰汚泥ポンプ 1 6 C 2、 返送汚泥ポンプ 1 6 C 1、 ブロ ワ一 1 7 Z、 制御バルブ 1 7 X, 1 7 Y な どのプロ セス操作量、 以上①〜④の時系列データ を記憶する。
メ ンバーシ ッ プ変換工程 6 9 は、 履歴パ タ ー ンデータ フ ア イノレ 7 1 F の中から 自動的にまたは交信手段 4 6 か らの指示 7 1 S によ り、 ①外乱特性、 ②プロセス状態量、 ③プロセス評価量、 ④プロセス操作量、 以上①〜④の各 々 か ら選択さ れたデータ 列 D l , D 2 , D 3 , D 4 を受 け、 メ ンバ一シ ッ プ値に変换する。 各データ列は実際に は複数の項 目 を含むが、 本実施例では説明を容易にする ため代表の記号 D 1〜: D 4で表すものとする。
学習用 ニ ュ ー ラ ルネ ッ ト 7 1 は変換さ れた メ ンバ一 シ ッ プ値 を 用 いて学習 を実行 し、 実行結果 7 1 S 1 と 7 1 S 2 と が、 フ ア ジィ ルール獲得工程 7 3 と予測用二 ュ一ラルネッ ト 7 2 と に出力される。
フ ア ジィ ルール獲得工程 7 3 では 7 1 S 1 と 7 1 S 2 に基づいて前記①〜④に関する フ ア ジィ ルール候補を記 号または言葉に変換する 。 フ ア ジィ ルール診断工程 7 4 では、 フ ア ジィ ルール獲得工程 7 3で得たフ ァ ジィ ル一 ルを交信手段 4 6 からの指示によ リ フ ア ジィ ルール候補 ベー ス 6 0 B またはフ ア ジィ ル一ルベース 6 O Aに格納 す る 。 フ ア ジィ 推論機構 6 1 は フ ア ジィ ルールべ 一 ス 6 0 A と 、 予め入力 したフ ア ジィ ルールベース 6 0 C を 受けて推論を実行し、 運転制御工程 7 5 に信号 6 1 S を 出力する。
一方、 予測用ニ ュ ー ラ ルネ ッ ト 7 2では履歴パタ ー ン データ フ ァ ィ ル 7 1 F の中から予測に必要なデータ を選 択 して予測に使用する。 予測結果の信号 7 2 S は交信手 段 4 6 に表示する と共に、 運転制御工程 7 5 に出力する。
運転制御工程 7 5 は予測信号 7 2 S と信号 6 1 S と を 受け、 信号 7 5 S を出力して④余剰汚泥ポンプ 1 6 C 2、 返送汚泥ポンプ 1 6 C 1、 ブロ ワ一 1 7 Z、 制御バルブ 1 7 X , 1 7 Y な どのプロセス操作量を制御する。 同時 に、 制御 目標値信号 7 5 S を交信手段 4 6 に表示して、 必要に応 じてオペ レータ 1 0 1 の選択によ り実際の制御 量を補正する。 補正値は再び出力する。
次に、 第 1 8 図を用い本発明の動作を詳細に説明する。 まず、 データ を履歴パ タ ー ンデー タ フ ァ イ ル 7 1 Fへ 記億する方法について説明する。 時刻 t = 0 の履歴パタ ー ンデー タ D l ( 0 )〜 D 4 ( 0 ) を履歴ノヽ。 タ ー ンデー タ フ ァ イ ル 7 1 F に記憶する。 これを繰り返して t = 0 , - 1 , - 2 , · · ·のデータ を順次記憶する 。 時間間隔は例 えば 1 時間であ る がこ の時間設定によ リ本発明の実施は 制約を受けない。 メ ンバ一シ ッ プ変換工程 6 9 を第 1 9 図を用いて説明 する 。 同図は予め設定したメ ンバーシ ッ プ関数の変換例 を表す。 同図では D 2 の代表が溶存酸素濃度 (以下 D O と略称する) の場合を例示し、 D O の 「高い」 「普通 J 「低 い 」 と い う 状態 を 各 々 メ ン バ ー シ ッ プ変換機能 6 9 1 H , 6 9 1 M , 6 9 1 Lで変換して変換値 D 2 H , D 2 M , D 2 L とす る 。 なお、 変換値 D 2 H, D 2 M , D 2 L を一括総称 し て記号で D F 2 と記す。 各変換機 能の横軸は②プロ セス状態量であ る D O を示 し 、 縦軸 はその度合い を 0〜 1 の値で表す。 一例と してメ ンバ一 シ ッ プ変換機能 6 9 1 L につ いて説明する と、 D O値 = 0.5 の メ ンノ 一シ ッ プ値 = 0.9 であ り 、 この こ と は、 D 0値 = 0.5 ならば 0.9 の度合い (メ ンバーシ ッ プ値) で 「 D 0 が低い J こ と を表す。 こ のよ う に して、 全ての 変数について メ ンバーシップ関数を予め定義しておき、 データ 列 D 1, D 2 , D 3 , D 4 を メ ンバーシ ッ プ値に 変換 し て D F 2, D F 3 , D F 4 を得る。 なお、 本例で は 「高い」 「普通 J 「低い J の 3つに分類したが分類数 は任意である。
続いて、 学習工程におけ る学習用 ニュー ラ ルネ ッ ト 7 1 の動作を以下に説明する。 学習用ニューラルネ ッ ト 7 1 はメ ンバーシ ッ プ値を受けて学習を実行する。 こ の データ 選択 と 学習方法を以下に説明する。 D F 1 (すな わち D 1 H , D I M , D 1 L)〜 D F 4 (すなわち D 4 H, D 4 M , D 4 L)について任意の時刻 t - t^ を基準に過 去に さ かのぼっ て 一 1 , t! - 2 , · · ·を まず学習す る。 同様に、 t - t z C t a ^ t Jを基準に して t z — 1 , t 2 — 2 , · · ·のパタ ーンデータ を学習し、 合計 q個のパ タ ーンデータ を学習する。 q個のパターンの選択は過去 の代表的なパタ ーンが望ま しい。 時刻 t iは任意の時刻 であ る ので、 常時学習を行なえば新たな状況に対応する 新たなフアジィルールを自動獲得できる。
学習はこれ ら一群のデータ を入力用データ と教師用デ ー タ と に分けて行な う 。 入力層 7 1 0 には任意の時刻 t (ただ し t = t , t 2, · · ·) における D F 1 ( t ), D F 2 ( t ) と 、 時刻 t か ら過去に さ かのぼっ て D F 1 ( t — l )〜 D F 4 ( t — 1 ) を順次入力す る 。 こ こ で 、 D F 3 ( t - 1 ) , D F 4 ( t — 1 ) が追加 さ れ る こ と に 注意さ れたい。 以下 t = t 一 2 , t 一 3 , ' . 'にっぃて も同様である。 一方、 教師層 7 5 0 には、 D F 3 ( t ) , D F 4 ( t )を入力する。 本実施例では③ D F 3 ( t ) , ④ D F 4 ( t )を教師層に入力 したが、 ①〜④のどれを教師 層に入力 しても本実施例の効果は失われない。 学習は、 入力層 7 1 0、 中間層 7 2 0、 出力層 7 3 0、 比較層 7 4 0、 教師層 7 5 0 からなる構成の学習用ニューラル ネッ 卜 7 1で行なう。
フ ア ジィ ルール獲得工程 7 3 では 7 1 S 1 と 7 1 S 2 に基づいて前記①②③④間のフ ア ジィ ルールを記号また は言葉に変換す る 。 入力層 7 1 0 に設定する変数 Xiと 出力層 7 3 0 に設定す る変数 と に関するルールの確 信度 を次式(前記( v )式と 同様)で計算する。 なお、 こ の 式は数学的な解析によ り独自に導かれたものである。 ji=∑ Wjk(3*-2) · Wki(2<-1) ••••(xi) k=l こ こで、 I ' ; jiは前記( v )式では 「因果性尺度 j と呼 んだが、 本実施例の I は、 「確信度」 と呼称する。 m は中間層のニューロ ン素子モデル数である。
(xii)式の計算は、 入力層から出力層にいたる全ての経 路の重み係数の積和を と る計算である。 i 番目の入力 と < 番 目 の出力 と の関係を表すルールは、 I jiの確信度に 対応 してそのルールが成立する。 入力層と出力層との全 ての組み合わせについて I jiを計算し、 結果を フ ア ジィ ルール候補と して 日本語に変換する。 例えば、
[フ ア ジィ ルール候補] : r i 番目 の入力値が大であ れば j 番目の出力値は確信度 I で大きい。 j
この変換は確信度 I jiが大きいルールから順に出力 し、 次に示すよ う に組み合わせたルール候補に変換する こ と もできる。
[フ ア ジィ ルール候補 ] : 「 i 番目 の入力値が大で、 かつ k番目 の入力値も大であれば j 番目 の出力値は確信 度 = ( I ji+ I jk)Z 2で大きい。 j
フ ア ジ イ ノレール診断工程 7 4 では, フ ア ジィ ルール 獲得工程 7 3 で得た フ ア ジィ ルール候補 を オ ペ レ ー タ 1 0 1 と交信手段 4 6 からの指示によ り妥当性を判定し、 妥当 と判定された前記フ ア ジィ ルール候補は フ ア ジィ ル ールベース 6 0 A に記憶し、 そ うでないルールはフ ア ジ ィ ルール候補ベース 6 0 B に記憶する。 一旦、 フ ア ジィ ルール候補ベース 6 0 B に記憶されたフ ア ジィ ルール候 補でも複数回起こ る場合には、 生起回数をカ ウ ン ト して 所定回数 (例えば 2 回) を越えたら、 交信手段 4 6 によ り オペレータ 1 0 1 に再度問い合わせ、 フ ア ジイノレール 診斬工程 7 4 を繰り返す。
本実施例の フ ア ジィ ルールベースと しては、 ある①外 乱、 ②プロセス状態量に対して、 ③評価量はどのよ う に な り 、 結果と して④プロセスを どう操作すればよいかと い う 関係が得られる が、 入力層と出力層と に配置する組 み合わせによ り ①〜④の任意の組み合わせでフ ア ジィ ル ールを抽出できる。
フ ア ジィ 推論機構 6 1 は フ ア ジィ ルールべ一ス 6 0 A と フアジィルールベース 6 0 Cと を受けて推論を実行し、 運転制御工程 7 5 に信号 6 1 S を出力する。 フ ア ジィ ル —ルベース 6 0 Cはオペ レータ 1 0 1 に対し従来手法で あるイ ンタ ビューによって予め獲得したプロ ダク ショ ン ノレ一ルある いはフ ァ ジィルールを記憶しておき必要に応 じて補助的に利用する。 フ ア ジィ推論機構 6 1 はルール に基づく前向きまたは後向き推論を実行する。
次に、 予測用ニューラルネ ッ 卜 7 2 による予測工程を 説明する。 予測用ニューラルネ ッ ト 7 2 の構成は第 6 図 に示 した と お り であ る 。 第 1 8図に示したよ う に、 予測 用 ニ ュ ー ラ ルネ ッ ト 7 2 では学習用 ニ ュ ー ラ ルネ ッ ト 7 1 での学習結果、 すなわち、 重み係数値 Wji( 3 2 ) および Wji( 2 1 )の値を信号 7 1 S 1 と 7 1 S 2 と し て受ける 。 なお、 第 1 8 図では学習用ニューラルネ ッ ト 7 1 と予測用ニューラルネ ッ ト 7 2 とは処理フ ローの説 明のため に別々 に記載さ れて い る 。 予測用ニューラル ネ ッ ト 7 2 は学習用ニ ュ ー ラ ルネ ッ ト 7 1 か ら比較層 7 4 0 と教師層 7 5 0 を除いた構成であ るので、 同一の ニューラルネッ トを用いてよいこ とは勿論である。
次に、 予測用ニューラルネ ッ ト 7 2の動作を説明する。 予測用ニューラルネッ ト 7 2では、 前記①②に対応して、 未知の前記③④を予測するものである。 このために、 ま ず入力層 7 1 0 に入力層パタ ーン と して、 t = 0 を基準 に設定 し た変数値 Yi (D F l ( 0 ) , D F 2 (0 ) ) と 、 t =- 1 , - 2 , · · ·を基準に設定した変数値 Yi(D F l ( i ) 〜 D F 5 ( i ), i = - 1 , - 2 , · · ·)を入力層 7 1 0 に入 力する。 こ の変数値 Yiは、 (1)現時点で既知の①②、 (2) 過去 ( t = - l , - 2 , · · ·)における①〜④である。 これ らは全て実棲値あるいは既知のデータ である こ と に注意 されたい。 これ ら の値に基づいて前述の( i )〜( vi )式の 計算を実行し、 未知の④プロセス状態評価量 (処理水質) D F 4 (0 )*と ⑤プ ロ セ ス操作量 (返送 /余剰汚泥量, 曝気空気量) D F 5 ( 0 )*と を出力層 7 3 0 に出力する。 前記③につ いては交信手段 4 6 にガイ ダンス表示し、 ④ につ いては制御信号 7 2 S を運転制御工程 7 5 に出力す る。
続いて運転制御工程 7 5 を以下に説明する。 運転制御 工程 7 5 では、 D F 5 ( 0 )*の信号 7 2 S と フ ア ジィ 推 論機構 6 1 の信号 6 1 S と を受けて、 まず雨者の整合性 を調べる。 信号 7 2 S が 6 1 S と矛盾し なければ、 プロ セ ス操作量の 目標値と して信号 7 5 S を余剰汚泥ポンプ 1 6 C 2 , 返送汚泥ポンプ 1 6 C 1、 ブロ ワ一 1 7 Z、 制御バルブ 1 7 X 1 7 Y な どに出力する。 逆に矛盾す れば交信手段 4 6 を通 してオペ レータ 1 0 1 に報知し、 修正を加える 。 なお、 制御頻度は本実施例では 1 時間毎 であ る が、 こ の時間単位は任意に設定でき る。 勿論、 時 間間隔が小さ ければ予測精度は向上する。 設定した時間 間隔 (本実施例では 1 時間) が長いために短い時間 (例 えば 1分間) のプロセス操作量を予測できない場合には、 数学的な補間にょ リ予測する。 同時に、 目標値 (予測結 果) のプロ セス操作量目標値信号 7 5 S を交信手段 4 6 に表示 し、 必要に応じてオペ レータ 1 0 1 の選択にょ リ 実際の操作を補正する。
なお、 本発明 を下水処理プロセスを実施例に説明した が、 一般のプロセスに適用できることは言う までもない。 本実施例によれば、 過去の実績データ から フ ア ジィル —ルを 自動獲得し、 かつ、 ニューラルネ ッ トの予測によ リ運転ガイダンスおよび制御を行ない得る。 したがって、 よ り 少ない労力で、 オペレータ が実施している 「実績と 前例に即 した、 し かしあいまいな運転」 を工学的に容易 に行な う こ と がで き る 。 また学習を随時行なう こ と が可 能であるので、 状況の変化に迅速に追随して学習し かつ 制御する こ と ができ る。
以上、 本発明の各実施例を浄水場に限って詳細に説明 したが、 本発明の基本思想は、 時間と共に変動する現象 を取 り扱う プロ セ ス、 例えば下廃水処理プロセス、 河川 情報処理プロ セス、 熱電併耠システム、 ビル管理システ ム、 空調等の屋内環境制御システム、 エ レベータ管理シ ステム、 気象情報処理プロセス、 火力 ' 原子力 ' 水力 * 発電プロ セ ス、 列車な ど輸送運航管理システム、 地図情 報システムな どの公共システム、 化学プロセス、 バイオ プロ セス、 半導体製造プロセス、 食品製造プロセスな ど の製造プロ セス、 証券 ' 為替情報処理プロ セス、 銀行管 理情報プロセスな どの情報システム、 コ ンピュータ管理 シ ステ ム、 端末管理シ ステム、 コ ン ピュータ ネ ッ ト ヮ一 ク管理システムなどに適用できる。 産業上の利用可能性 ' 本発明によれば、 プロ セスの運転支援に神経回路モデ ルを用い る こ と に よ リ 、 比較的簡単に精度の高い運転ま 援シ ステム を構築する こ と ができ る 。 また、 学習を行つ た神経回路モデルか ら 、 過去の運転履歴情報内に埋もれ た知識を容易に抽出 し、 その結果を運転支援に利用する こ と ができ る。
(以下余白)

Claims

請 求 の 範 囲
1 . 時間と共に変化する複数の入力変数値に応じて、 制 御対象を 目標状態に近づけて当該制御対象の制御変数 値を求めるプロセス蓮転支援方法であって、
入力層、 少な く とも 1層の中間層、 および出力層か らなる階層構造の神経回路モデルを用い、
プロセスの過去の運転履歴情報のうち、 異なる時点 の複数の入力変数値の代表的なパターンを入力信号と すると共に当該代表的なパタ ーンに対応する制御変数 値を教師信号と して、 前記神経回路モデルに学習させ、 該学習した神経回路モデルに前記入力変数値と して 未学習のパタ ーンを入力することによ リ 目的の制御変 数値を求める こ と を特徴とするプロセス運転ま援方法。
2. 時間と共に変化する複数の入力変数値に応じて、 少 なく とも 1個の制御対象が目標状態となるような当該 制御対象の制御変数値を求めるプロセス運転支援方法 で って、
入力層、 少な く とも 1層の中間層、 および出力層か らなる階層構造の神経回路モデルを用い、
前記制御対象を 目標状態とする制御が達成されたと きの前記複数の入力変数値のパターンを入力信号とす る と共に当該パタ ーンに対応する制御変数値を教師信 号と して、 複数のパターンについて順次前記神経回路 モデルに学習させ、 該学習した神経回路モデルに前記入力変数値と して 任意の入力変数値パターンを入力する こ と によ リ該パ タ ーンに対する制御変数値を求める こ と を特徴とする プロセス運転支援方法。
3. 前記神経回路モデルの学習時に、 或る時点の入力変 数値パターンと該或る時点の一定時間前の時点の入力 変数値パターンと を同時に入力信号と して用いる と と もに前記或る時点の制御変数値を教師信号と して用い、 複数の入力信号について学習した後、 該神経回路モデ ルに現時点の入力変数値パターンおよび現時点よ リー 定時間前の時点の入力変数値パターンを同時に入力す るこ と によ り現時点の制御変数値を求める こ と を特徴 とする請求項 1 または 2記載のプロセス運転支援方法。
4. 時間と共に変化する複数の入力変数値に応じて、 制 御対象が目標状態に近づけるような当該制御対象の制 御変数値を求めるプロセス運転支援方法であって、
入力層、 少なく とも 1層の中間層、 および出力層か らなる階層構造の神経回路モデルを用い、
或る時点の入力変数値パタ ーン、 該或る時点の一定 時間前の時点の入力変数値パタ ーン、 両時点の入力変 数値の偏差のパターンのうち 2個以上のパターンを同 時に入力信号と して用いる と ともに、 前記或る時点の 制御変数値を教師信号と して、 複数の入力信号につい て前記神経回路モデルに学習させ、
該学習した神経回路モデルに現時点の前記 2個以上 のパターンを同時に入力するこ と によ リ現時点の制御 変数値を求めるこ とを特徴とするプロセス運転支援方 法。
5. 前記神経回路モデルの学習した結果に基づいて、 前 記各入力変数と各制御変数との間の因果関係を抽出し、 該因果関係に基づいて前記プロセスの蓮転を支援する 請求項 1 、 2 、 3 または 4記載のプロセス運転支援方 法。
6. 前記神経回路モデルは、 複数のニューロン素子モデ ルからなる入力層と、 該入力層の各ニューロン素子モ デルの出力をそれぞれ受ける複数のニューロ ン素子モ デルからなる少なく とも 1層の中間層と、 最終の中間 層の各ニューロ ンの出力を受ける少なく とも 1個の二 ユーロン素子モデルからなる出力層と を有し、 前記入 力層の各ニューロ ン素子モデルに入力変数を対応させ る と ともに前記出力層の各ニューロ ン素子モデルに各 制御変数を対応させ、 前記学習は前記各ニューロ ン素 子モデル間の連結部に付与された重み係数を制御する ことによ リ行う こと を特徴とする請求項 1 、 2、 また は 4記載のプロセス蓮転支援方法。
7. 前記神経回路モデルの学習した結果に基づいて、 前 記各入力変数と各制御変数との間の結合強度を求め、 該結合強度の大きさに基づいて前記神経回路モデルの 回路構造を変更するこ と を特徴とする請求項 6記載の プロセス運転支援方法。
8. 特定の一入力変数と特定の一制御変数との結合強度 は、 当該:入力変数に対応する前記入力層のニューロ ン素子モデルから前記中間層の各ニューロ ン素子モデ ルを経て当該一制御変数に対応する前記出力層のニュ 一ロン素子モデルに至る各経路の重み係数の積和で定 義する こと を特徴とする請求項 7記載のプロセス運転 支援方法。
9. 前記神経回路モデルの構造の変更は、 特定のニュー ロン素子モデル間の連結の削除である請求項 7記載の プロセス運転ま援方法。
10. 前記神経回路モデルの構造の変更は、 前記中間層の 階層数の変更である請求項 7記載のプロセス運転支援 方法。
1 1 . 定常時の履歴情報を学習した神経回路モデルと非定 常時の履歴情報を学習した神経回路モデルと を別個に 用意し、 運転ま援時に、 定常時と非定常時とで神経回 路モデルを切 り換えて使用するこ と を特徴とする請求 項 1、 2 または 4記載のプロセス蓮転支援方法。
12. 入力変数値のパタ ーンの変化状態に応じて、 別個の 履歴情報を学習した神経回路モデルを複数個用意し、 運転支援時に、 前記入力変数値のパターンの変化状態 に応じて使用する神経回路モデルを切 り換える こ と を 特徴とする請求項 1、 2 または 4記載のプロセス運転 支援方法。
13. 入力層、 中間層および出力層の異なる層間で連結さ れたニューロ ン素子モデル対間の重み係数が決定され るこ と によ り学習を有限回実行した階層構造の神経回 路モデルから、 該神経回路モデルの入力変数と出力変 数との間の因果関係を知識と して抽出する知識抽出方 法であって、
特定の一入力変数に対応する入力層のニューロ ン素 子モデルから前記中間層の各ニューロ ン素子モデルを 経て、 特定の一出力変数に対応する出力層のニューロ ン素子モデルに至る複数の経路について、 各経路の重 み係数の積を求め、 複数の経路について該積を加算し、 該加算値を当該一入力変数と一出力変数との間の因果 関係を定める尺度とするこ とを特徴とする知識抽出方 法。
14. 時間と共に変化する複数の入力変数値に応じて、 制 御対象を 目標状態に近づける当該制御対象の制御変数 値を求めるプロセス運転支援システムであっ て、
入力層、 中間層および出力層からなる階層構造の神 経回路モデルを有し、 該神経回路モデルに過去の蓮転 履歴情報を入力信号および教師信号と して用いて過去 の運転実績を学習させた処理手段と、
前記制御対象から前記神経回路モデルに入力する入 力変数値を得る入力手段と、
前記学習した神経回路モデルから知識を抽出する知 識抽出手段と、
該知識抽出手段によ り得られた知識を蓄積する知識 ベースと、
該知識ベースに蓄積された知識からプロセス運転支 援情報を得る推論機構と、
前記処理手段の出力およびノまたは前記推論機構の 出力に応じて前記制御対象の制御のガイ ダンスを行う ガイダンス手段と
を備えたこ と を特徴とするプロセス運転支援システム。. プロセスの観測量に基づき制御量の 目標値を出力す るための先見的モデルを用いたプロセス運転支援方法 であっ て、
該先見的モデルの出力値と制御量の実測値と の誤差 を計算し、
入力層、 少な く とも 1 層の中間層、 出力層および教 師層からなる階層構造の神経回路モデルを用い、 過去 の複数時点での前記観測量を入力層に入力 し、 かつ、 対応する前記誤差を教師層に入力する こ と によ り 、 前 記観測量と前記誤差と の関係を学習し、 学習済み神経 回路モデルに、 任意時点での前記観測量を入力 して対 応する時点での誤差を予測させる と共に、
前記先見的モデルの出力値と前記学習済み神経回路 モデルの予測値と によ り、 制御量の 目標値を出力する よ う に したこ と を特徴とするプロセス運転支援方法。. プロセスの観測量に基づき制御量の 目標値を出力す る 目的で調整可能なパラ メータ を有する先見的モデル を用いたプロセス運転支援方法であっ て、 該先見的モデルの出力値と制御量の実測値との誤差 を計算し、
入力層、 少なく とも 1層の中間層、 出力層および教 師層からなる階層構造の神経回路モデルを用い、 過去 の複数時点での前記観測量を入力層に入力 し、 かつ、 対応する時点での前記先見的モデルの調整可能なパラ メータ値を教師層に入力する こ と によ り、 前記観測量 と前記パラメータ値との関係を学習し、 学習済み神経 回路モデルに、 任意時点での前記観測量を入力 して対 応する時点での前記パラメータ値を予測させる と共に、 前記学習済み神経回路モデルから予測されたパラメ ータ予測値を用いて前記先見的モデルの出力値を得て、 該出力値に基づき制御量の目標値を出力するよう にし たこと を特徴とする運転支援方法。
. 時間と共に変化するプロセスから状態量間の知識を 獲得し、 これを利用して該プロセスの運転を支援する プロセス運転支援方法において、
①外乱と②プロセス状態量おょぴ③評価量に対して ④プロセスの操作量を出力するものであって、
入力層、 少なく とも 1層の中間層、 および出力層か らなる階層構造の神経回路モデルを用い、
過去の複数時点での前記①、 ②、 ③およぴ④のうち の少なく とも 1 つを、 予め設定したメンバーシップ関 数によ り変換するよ う に し、 前記①、 ②、 ③および Φ' のうち少な く とも①または②を前記入力層に入力する と 共に、 当該入力 と に対応する前記①、 ②、 ③および ④の う ち の少な く と も 1 つ を前記出力層の教師パタ ー ンと して前記神経回路モデルに学習させる こ と によ り 、 前記①②③④の間の少な く と も 2 つの関係 を記述する ための確信度付き フ ア ジィ ルールを出力 し、
該確信度付き フ ァ ジィ ルールを利用 してプロ セス運 転をま援ま たは制御す る こ どを特徴とするプロ セス蓮 転支援方法。
. 入力層、 少な く と も 1 層の中間層、 および出力層か らなる階層構造の神経回路モデルを用い、
プロ セ スの過去の当該入力 に対応する実績需要パタ ーン を教師パタ ー ン と し て、 前記神経回路モデルに学 習させ、
該学習 し た神経回路モデルに、 未学習の複数の外乱 変数の予想値を入力す る こ と によ り 、 対応する需要パ ターンを予測し、
該予測 し た需要パタ ーン を 目標パタ ーン と してプロ セ スの制御に供す る こ と を特徴とするプロセス運転支援 方法。
入力層、 少な く と も 1 層の中間層、 および出力層か らなる階層構造の神経回路モデルを用い、
過去の複数時点での、 天候および 日 射量を含む気象 条件 と推量、 水温、 水質の う ちの少な く と も一つ を含 む水質条件 と を入力す る と と も に、 当該入力 に対応す る塩素注入量ま たは濃度 を教師パタ ーン と して前記神 経回路モデルに学習させ、 · 該学習 した神経回路モデルに現時点又は将来予想さ せる前記気象条件と前記水質条件と を入力 し、 当該入 力に対応する塩素注入量または濃度を予測させ、
該予測値に基づいて塩素注入量または濃度を決定す る こ と を特徵とする、 浄水場における塩素注入制御方 法。
PCT/JP1990/000322 1989-03-13 1990-03-13 Supporting method and system for process control WO1990010898A1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1019900702426A KR940005029B1 (ko) 1989-03-13 1990-03-13 프로세스 운전지원방법 및 시스템
EP90904434A EP0432267B1 (en) 1989-03-13 1990-03-13 Supporting method and system for process control
DE69032557T DE69032557T2 (de) 1989-03-13 1990-03-13 Verfahren und system zur regelung eines verfahrens
US07/613,718 US5774633A (en) 1989-03-13 1990-03-13 Supporting neural network method for process operation
US08/220,546 US5943662A (en) 1989-03-13 1994-03-31 Supporting method and system for process operation

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP1/57759 1989-03-13
JP5775989 1989-03-13
JP1/194898 1989-07-27
JP1194898A JP2533942B2 (ja) 1989-03-13 1989-07-27 知識抽出方法およびプロセス運転支援システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US07/613,718 Continuation US5774633A (en) 1989-03-13 1990-03-13 Supporting neural network method for process operation

Publications (1)

Publication Number Publication Date
WO1990010898A1 true WO1990010898A1 (en) 1990-09-20

Family

ID=26398833

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1990/000322 WO1990010898A1 (en) 1989-03-13 1990-03-13 Supporting method and system for process control

Country Status (6)

Country Link
US (3) US5774633A (ja)
EP (2) EP0708390B1 (ja)
JP (4) JP2533942B2 (ja)
KR (1) KR940005029B1 (ja)
DE (2) DE69032557T2 (ja)
WO (1) WO1990010898A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103064289A (zh) * 2012-12-19 2013-04-24 华南理工大学 一种垃圾发电厂多目标运行优化及协调的控制方法及装置
TWI761975B (zh) * 2020-09-29 2022-04-21 新加坡商鴻運科股份有限公司 機台製程參數的異常監測裝置、方法及可讀存儲介質

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH048639A (ja) * 1990-04-25 1992-01-13 Mitsubishi Electric Corp 自動車運転装置
JP2605505B2 (ja) * 1991-07-04 1997-04-30 株式会社日立製作所 プロセス運転支援ルール獲得システム、プロセス運転支援システム、プロセス運転制御システム及びプロセス運転支援ルール獲得方法
JPH05127706A (ja) * 1991-10-31 1993-05-25 Toshiba Corp ニユーラルネツト型シミユレータ
JPH05334309A (ja) * 1992-05-29 1993-12-17 Fujitsu Ltd 債券格付け決定装置及び財務コンサルティング方法
US5477444A (en) * 1992-09-14 1995-12-19 Bhat; Naveen V. Control system using an adaptive neural network for target and path optimization for a multivariable, nonlinear process
DE4304676C1 (de) * 1993-02-16 1994-06-23 Optum Umwelttech Gmbh Verfahren zum Betrieb einer Abwasserreinigungsanlage sowie zugehörige Abwasserreinigungsanlage
DE59511077D1 (de) * 1994-10-11 2007-03-22 Conducta Endress & Hauser Analysegerät, insbesondere für Abwasser
JP3196938B2 (ja) * 1994-12-28 2001-08-06 オムロン株式会社 ヒエラルキー・モデルを用いた制御システムおよび方法
JP2000048047A (ja) * 1998-01-19 2000-02-18 Asahi Glass Co Ltd 時系列デ―タの保存方法及び時系列デ―タベ―スシステム、時系列デ―タの処理方法及び時系列デ―タ処理システム、時系列デ―タ表示システム、並びに記録媒体
US6078918A (en) * 1998-04-02 2000-06-20 Trivada Corporation Online predictive memory
JP3684081B2 (ja) * 1998-08-10 2005-08-17 シャープ株式会社 排水処理装置
US6336086B1 (en) * 1998-08-13 2002-01-01 Agere Systems Guardian Corp. Method and system for analyzing wafer processing order
US20130189801A1 (en) * 1998-11-06 2013-07-25 Semcon Tech, Llc Advanced finishing control
US7575501B1 (en) 1999-04-01 2009-08-18 Beaver Creek Concepts Inc Advanced workpiece finishing
US6986698B1 (en) 1999-04-01 2006-01-17 Beaver Creek Concepts Inc Wafer refining
US7220164B1 (en) 2003-12-08 2007-05-22 Beaver Creek Concepts Inc Advanced finishing control
US7008300B1 (en) 2000-10-10 2006-03-07 Beaver Creek Concepts Inc Advanced wafer refining
US8353738B2 (en) * 1998-11-06 2013-01-15 Semcon Tech, Llc Advanced finishing control
US7572169B1 (en) 1998-11-06 2009-08-11 Beaver Creek Concepts Inc Advanced finishing control
US6739947B1 (en) 1998-11-06 2004-05-25 Beaver Creek Concepts Inc In situ friction detector method and apparatus
US7037172B1 (en) 1999-04-01 2006-05-02 Beaver Creek Concepts Inc Advanced wafer planarizing
US7878882B2 (en) * 1999-04-01 2011-02-01 Charles J. Molnar Advanced workpiece finishing
US7131890B1 (en) 1998-11-06 2006-11-07 Beaver Creek Concepts, Inc. In situ finishing control
JP4147647B2 (ja) * 1998-11-09 2008-09-10 ソニー株式会社 データ処理装置およびデータ処理方法、並びに記録媒体
JP4517409B2 (ja) * 1998-11-09 2010-08-04 ソニー株式会社 データ処理装置およびデータ処理方法
US20060190805A1 (en) * 1999-01-14 2006-08-24 Bo-In Lin Graphic-aided and audio-commanded document management and display systems
JP3679942B2 (ja) * 1999-02-26 2005-08-03 株式会社東芝 処理水質制御装置
JP4344964B2 (ja) 1999-06-01 2009-10-14 ソニー株式会社 画像処理装置および画像処理方法
FR2795830B1 (fr) * 1999-07-01 2001-08-31 Lorraine Laminage Procede de pilotage d'un processus dynamique complexe
US6408227B1 (en) * 1999-09-29 2002-06-18 The University Of Iowa Research Foundation System and method for controlling effluents in treatment systems
US6296766B1 (en) * 1999-11-12 2001-10-02 Leon Breckenridge Anaerobic digester system
US6376831B1 (en) * 2000-02-24 2002-04-23 The United States Of America As Represented By The Secretary Of The Navy Neural network system for estimating conditions on submerged surfaces of seawater vessels
US6315909B1 (en) * 2000-05-01 2001-11-13 Nalco Chemical Company Use of control matrix for cooling water systems control
JP2002059384A (ja) * 2000-08-22 2002-02-26 Sony Corp ロボットのための学習システム及び学習方法
JP3600556B2 (ja) * 2001-06-29 2004-12-15 株式会社東芝 情報処理装置
US7353248B1 (en) * 2001-07-30 2008-04-01 At&T Delaware Intellectual Property, Inc. Application server and method to perform hierarchical configurable data validation
US7441007B1 (en) 2001-07-30 2008-10-21 At&T Intellectual Property I, L.P. System and method for allowing applications to retrieve properties and configuration information from a persistent store
US7191209B1 (en) * 2001-07-30 2007-03-13 Bellsouth Intellectual Property Corp. Application server and method to perform hierarchical configurable data manipulation
US8458082B2 (en) 2001-11-13 2013-06-04 Interthinx, Inc. Automated loan risk assessment system and method
US6620329B2 (en) * 2001-12-13 2003-09-16 Turf Sentry, Inc. Golf course irrigation water monitoring and treatment system
US6955765B2 (en) * 2001-12-13 2005-10-18 Rosen Peter L Recycled irrigation water treatment system
US6845336B2 (en) 2002-06-25 2005-01-18 Prasad S. Kodukula Water treatment monitoring system
WO2006022604A1 (en) * 2003-05-07 2006-03-02 Rosen Peter L Golf course irrigation water monitoring and treatment system
US8069077B2 (en) * 2003-06-11 2011-11-29 Kabushiki Kaisha Toshiba Electric-power-generating-facility operation management support system, electric-power-generating-facility operation management support method, and program for executing support method, and program for executing operation management support method on computer
US7785527B1 (en) 2003-11-06 2010-08-31 Drexel University Method of making mixed metal oxide ceramics
KR100581717B1 (ko) * 2004-06-15 2006-05-22 한국과학기술원 사용자 행동 패턴 기반 지능형 주거 공간의 학습방법
US7820038B2 (en) * 2005-03-29 2010-10-26 Kabushiki Kaisha Toshiba Ultraviolet radiation water treatment system
JP4468221B2 (ja) * 2005-03-29 2010-05-26 株式会社東芝 紫外線照射を利用した水処理システム
JP4780442B2 (ja) * 2005-07-12 2011-09-28 清水建設株式会社 鉄筋コンクリート柱と鉄骨梁との接合構造およびその施工方法
JP4975287B2 (ja) * 2005-08-08 2012-07-11 パナソニック株式会社 予測装置
WO2007079238A2 (en) * 2005-12-30 2007-07-12 Saudi Arabian Oil Company Computational method for sizing three-phase separators
JP2007226450A (ja) * 2006-02-22 2007-09-06 Fuji Electric Systems Co Ltd 流量予測装置、流量予測方法および流量予測プログラム
EP1892597A1 (de) * 2006-08-26 2008-02-27 Peter Renner Zustandsüberwachung von Maschinen und technischen Anlagen
US7991499B2 (en) * 2006-12-27 2011-08-02 Molnar Charles J Advanced finishing control
DE102007001025B4 (de) 2007-01-02 2008-11-20 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
US8790517B2 (en) 2007-08-01 2014-07-29 Rockwater Resource, LLC Mobile station and methods for diagnosing and modeling site specific full-scale effluent treatment facility requirements
US20090032446A1 (en) * 2007-08-01 2009-02-05 Triwatech, L.L.C. Mobile station and methods for diagnosing and modeling site specific effluent treatment facility requirements
US8357286B1 (en) 2007-10-29 2013-01-22 Semcon Tech, Llc Versatile workpiece refining
AU2009320033A1 (en) * 2008-11-02 2010-06-03 Nobska Technologies, Inc Water treatment systems with communications network links and methods
KR101064908B1 (ko) * 2008-11-12 2011-09-16 연세대학교 산학협력단 신규의 희생층 재료를 이용한 기판 상에서의 나노와이어 패터닝 방법
US8655830B2 (en) * 2009-10-06 2014-02-18 Johnson Controls Technology Company Systems and methods for reporting a cause of an event or equipment state using causal relationship models in a building management system
US20110087650A1 (en) * 2009-10-06 2011-04-14 Johnson Controls Technology Company Creation and use of causal relationship models in building management systems and applications
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
JP6123167B2 (ja) * 2012-04-05 2017-05-10 ソニー株式会社 脳波解析装置及び脳波解析プログラム
US10375901B2 (en) 2014-12-09 2019-08-13 Mtd Products Inc Blower/vacuum
KR102486699B1 (ko) 2014-12-15 2023-01-11 삼성전자주식회사 영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치
US10346726B2 (en) 2014-12-15 2019-07-09 Samsung Electronics Co., Ltd. Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image
JP2016146174A (ja) * 2015-02-06 2016-08-12 パナソニックIpマネジメント株式会社 決定方法およびプログラム
JP5925371B1 (ja) * 2015-09-18 2016-05-25 三菱日立パワーシステムズ株式会社 水質管理装置、水処理システム、水質管理方法、および水処理システムの最適化プログラム
JP6516660B2 (ja) * 2015-11-26 2019-05-22 Kddi株式会社 異なる周期階層のデータによる学習を行うデータ予測装置、情報端末、プログラム及び方法
DE102015226656B4 (de) * 2015-12-23 2019-10-10 Siemens Aktiengesellschaft Verfahren und Softsensor zum Ermitteln einer Leistung eines Energieerzeugers
US10238992B2 (en) 2016-05-03 2019-03-26 Saudi Arabian Oil Company Processes for analysis and optimization of multiphase separators, particularly in regard to simulated gravity separation of immiscible liquid dispersions
US10372976B2 (en) * 2016-05-05 2019-08-06 Brunswick Corporation Person detection in a marine environment
JP7035302B2 (ja) * 2016-07-14 2022-03-15 日本電気株式会社 情報処理システム、自動運用装置、運用端末、方法およびプログラム
KR101917006B1 (ko) 2016-11-30 2018-11-08 에스케이 주식회사 머신 러닝 기반 반도체 제조 수율 예측 시스템 및 방법
US10930535B2 (en) 2016-12-02 2021-02-23 Applied Materials, Inc. RFID part authentication and tracking of processing components
CN108268947A (zh) * 2016-12-30 2018-07-10 富士通株式会社 用于提高神经网络的处理速度的装置和方法及其应用
US10829344B2 (en) 2017-07-06 2020-11-10 Otis Elevator Company Elevator sensor system calibration
US11014780B2 (en) 2017-07-06 2021-05-25 Otis Elevator Company Elevator sensor calibration
WO2019084675A1 (en) 2017-10-31 2019-05-09 Luminultra Technologies Ltd. Decision support system and method for water treatment
CN111316312A (zh) * 2017-11-08 2020-06-19 株式会社东芝 技能基础系统、技能模型化装置及技能流通方法
JP6986203B2 (ja) 2018-03-12 2021-12-22 オムロン株式会社 制御装置、制御システム、制御方法及び制御プログラム
JP6857332B2 (ja) 2018-03-13 2021-04-14 オムロン株式会社 演算装置、演算方法、及びそのプログラム
JP7043983B2 (ja) * 2018-06-06 2022-03-30 株式会社明電舎 汚水処理施設の水質判定装置及び水質判定方法
JP6764487B2 (ja) * 2018-07-26 2020-09-30 三菱電機株式会社 水処理プラントおよび水処理プラントの運転方法
JP6941083B2 (ja) * 2018-08-17 2021-09-29 水ing株式会社 水処理方法および水処理システム
JP7076356B2 (ja) * 2018-10-23 2022-05-27 水ing株式会社 排水処理方法
TWI734059B (zh) 2018-12-10 2021-07-21 財團法人工業技術研究院 動態預測模型建立方法、電子裝置及使用者介面
WO2020148773A1 (en) * 2019-01-16 2020-07-23 Telefonaktiebolaget Lm Ericsson (Publ) Predicting network behaviour
CN109856974A (zh) * 2019-03-01 2019-06-07 烟台大学 一种基于被控量变化的四因素智能控制方法
JP7253721B2 (ja) * 2019-05-08 2023-04-07 パナソニックIpマネジメント株式会社 異音判定装置、異音判定方法および異音判定システム
JP7059989B2 (ja) * 2019-08-07 2022-04-26 横河電機株式会社 制御システム及び制御方法
GB201912451D0 (en) * 2019-08-30 2019-10-16 Environmental Monitoring Solutions Ltd Autonomous wastewater treatment system
US11565946B2 (en) * 2019-12-03 2023-01-31 Ramboll USA, Inc. Systems and methods for treating wastewater
EP4097648A4 (en) * 2020-01-29 2024-02-28 Xylem Vue Inc SYSTEMS AND METHODS FOR THE EFFECTIVE MANAGEMENT OF FLUID INFRASTRUCTURES
US11055617B1 (en) * 2020-06-30 2021-07-06 DeepCube LTD. Partial-activation of neural network based on heat-map of neural network activity
JP7032485B2 (ja) * 2020-07-09 2022-03-08 水ing株式会社 水処理又は汚泥処理システムの運転制御方法
WO2022192045A1 (en) * 2021-03-12 2022-09-15 Ecolab Usa Inc. Machine learning automatic control of antimicrobial application in water systems
KR102634007B1 (ko) * 2023-09-26 2024-02-06 블루센 주식회사 안심 음용수 공급 장치 및 방법

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3287649A (en) * 1963-09-09 1966-11-22 Research Corp Audio signal pattern perception device
US4774677A (en) * 1981-08-06 1988-09-27 Buckley Bruce S Self-organizing circuits
US4989256A (en) * 1981-08-06 1991-01-29 Buckley Bruce S Self-organizing circuits
US5515454A (en) * 1981-08-06 1996-05-07 Buckley; B. Shawn Self-organizing circuits
JPS62239278A (ja) * 1986-04-10 1987-10-20 Hitachi Ltd 凝集物の画像認識装置
GB2197766B (en) * 1986-11-17 1990-07-25 Sony Corp Two-dimensional finite impulse response filter arrangements
JPS6427538A (en) * 1987-07-23 1989-01-30 Toshiba Corp Ultrasonic scanner
US5092343A (en) * 1988-02-17 1992-03-03 Wayne State University Waveform analysis apparatus and method using neural network techniques
JPH075235B2 (ja) * 1988-04-28 1995-01-25 フジテック株式会社 エレベータの群管理制御装置
JP2717665B2 (ja) * 1988-05-31 1998-02-18 株式会社豊田中央研究所 内燃機関の燃焼予測判別装置
KR940001173B1 (ko) * 1988-08-31 1994-02-16 후지쓰 가부시끼가이샤 뉴로 컴퓨터
US5093899A (en) * 1988-09-17 1992-03-03 Sony Corporation Neural network with normalized learning constant for high-speed stable learning
US5109475A (en) * 1988-09-19 1992-04-28 Hitachi, Ltd. Method and a system for selection of time series data
JPH0293708A (ja) * 1988-09-30 1990-04-04 Toshiba Corp 制御装置
US4912647A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Neural network training tool
US5046020A (en) * 1988-12-16 1991-09-03 E. I. Du Pont De Nemours And Company Distributed parallel processing network wherein the connection weights are generated using stiff differential equations
JPH0660826B2 (ja) * 1989-02-07 1994-08-10 動力炉・核燃料開発事業団 プラントの異常診断方法
US5195169A (en) * 1989-03-03 1993-03-16 Sharp Kabushiki Kaisha Control device for controlling learning of a neural network
JPH0738186B2 (ja) * 1989-03-13 1995-04-26 シャープ株式会社 自己拡張形ニユーラル・ネットワーク
JPH02287860A (ja) * 1989-04-28 1990-11-27 Omron Corp 情報処理装置
JPH02308359A (ja) * 1989-05-24 1990-12-21 Japan Radio Co Ltd 多層ニューラルネットワーク
JPH07130748A (ja) * 1993-11-08 1995-05-19 Toshiba Corp 半導体装置およびその製造方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ISAO HAYASHI (author) "Learning Control with Neural Net Drive Type Fuzzy Theory", Text for Research of Possibility of Neural/Fuzzy Application, System Control Joho Gakkai, Deposited with the Japanese Government Patent Office on June 22, 1989, p. 79-89 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103064289A (zh) * 2012-12-19 2013-04-24 华南理工大学 一种垃圾发电厂多目标运行优化及协调的控制方法及装置
CN103064289B (zh) * 2012-12-19 2015-03-11 华南理工大学 一种垃圾发电厂多目标运行优化及协调的控制方法及装置
TWI761975B (zh) * 2020-09-29 2022-04-21 新加坡商鴻運科股份有限公司 機台製程參數的異常監測裝置、方法及可讀存儲介質

Also Published As

Publication number Publication date
US5943662A (en) 1999-08-24
JPH1091208A (ja) 1998-04-10
JPH0315902A (ja) 1991-01-24
KR940005029B1 (ko) 1994-06-10
EP0432267A4 (en) 1992-09-16
JPH07319509A (ja) 1995-12-08
EP0708390A2 (en) 1996-04-24
EP0432267A1 (en) 1991-06-19
US5774633A (en) 1998-06-30
DE69032557D1 (de) 1998-09-17
KR920700418A (ko) 1992-02-19
DE69033328D1 (de) 1999-11-18
US5845052A (en) 1998-12-01
EP0708390B1 (en) 1999-10-13
JP2886112B2 (ja) 1999-04-26
DE69033328T2 (de) 2000-05-31
JP2533942B2 (ja) 1996-09-11
DE69032557T2 (de) 1999-05-06
JP2753460B2 (ja) 1998-05-20
EP0708390A3 (en) 1997-04-02
JPH07319508A (ja) 1995-12-08
EP0432267B1 (en) 1998-08-12

Similar Documents

Publication Publication Date Title
WO1990010898A1 (en) Supporting method and system for process control
JP4401638B2 (ja) 神経回路網及び誤差逆伝播法による下排水処理人工知能制御システム及び方法
Cheng et al. Forecasting of wastewater treatment plant key features using deep learning-based models: A case study
JP3795775B2 (ja) 下水流入量予測装置および方法、サーバ装置
CN115108617B (zh) 混凝加药方法及系统
CN108536106A (zh) 一种基于卡尔曼滤波-极限学习机的曝气系统溶解氧在线调控方法
CN114119277A (zh) 一种基于人工智能神经网络的絮凝投药决策的分析方法
JPH07160661A (ja) ニューラルネットワークの教師データ自動抽出方法と、それを用いたニューラルネットワークシステム、並びに、プラント運転支援装置
JP4146610B2 (ja) 濁度予測システム、濁度制御システムおよび濁度管理システム
JPWO2020021687A1 (ja) 水処理プラント
JPH03134706A (ja) 下水処理場運転支援のための知識獲得方法
JP3321308B2 (ja) プラント予測制御装置
JPH07119184A (ja) 上下水道システムの運転装置
JPH05204406A (ja) プロセス制御装置
KR20070000101A (ko) 마을 하수 처리 시설 통합 관리 방법 및 그 시스템
JPWO2020021689A1 (ja) 水処理プラントおよび水処理プラントの運転方法
Deveughele et al. Neural networks: an efficient approach to predict on-line the optimal coagulant dose
JP3186898B2 (ja) ニューラルネットワークを用いた支援システム
JPH03135497A (ja) 塩素注入制御方法
JP2000089806A (ja) 日射強度予測を用いた制御装置
CN117690518A (zh) 一种用于处理水煤浆废水的药品投加量确定方法及系统
JPH04205601A (ja) プロセスの運転支援システム
CN116151458A (zh) 一种基于污水处理大数据技术的生产模型和控制方法
Registe Leveraging Big Data Platforms in Water and Wastewater to Accelerate Machine Learning Optimization at a Regional Scale
Luo et al. Effluent quality prediction of wastewater treatment plant based on fuzzy-rough sets and artificial neural networks

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB IT LU NL SE

WWE Wipo information: entry into national phase

Ref document number: 1990904434

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1990904434

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1990904434

Country of ref document: EP