DE3720195A1 - Computer for use as an expert system - Google Patents

Computer for use as an expert system

Info

Publication number
DE3720195A1
DE3720195A1 DE19873720195 DE3720195A DE3720195A1 DE 3720195 A1 DE3720195 A1 DE 3720195A1 DE 19873720195 DE19873720195 DE 19873720195 DE 3720195 A DE3720195 A DE 3720195A DE 3720195 A1 DE3720195 A1 DE 3720195A1
Authority
DE
Germany
Prior art keywords
abst
output
memory
input
ebst
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19873720195
Other languages
German (de)
Inventor
Peter Prof Dipl Ing Gerke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19873720195 priority Critical patent/DE3720195A1/en
Publication of DE3720195A1 publication Critical patent/DE3720195A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Abstract

Computer for use as an expert system, which is constructed and operated significantly differently from Von Neumann principles, above all in that purely memory-location-address-driven memories, purely serial processing of program steps, use of arithmetic-logic units and use of memory-position-oriented addresses are replaced by associatively driven memories, parallel processing of thought combinations, and memory-content-oriented addresses and pointers, which contains input components (EBst), which correspond to specific thought combinations, data blocks, facts or stimuli, and have associative memory units (EBst), and output components (ABst) with associative memory units (ABst), between which a linkage part or context memory (KS) with associative memory units (KS) is inserted, and in which the context memory (KS) can be controlled multi-stably, so that, after weighting the individual stimuli which come from the input components (EBst) and/or from its individual activated context memory cells (KoSZ), it outputs a pattern of output signals to its outputs, and the pattern controls individual output components (ABst), depending on earlier premises which affected the input (E). <IMAGE>

Description

Schon seit vielen Jahren sind Expertensysteme Gegenstand umfang­ reicher Untersuchungen unter Fachleuten. Expertensysteme sollen im Rahmen der "Künstlichen Intelligenz" die menschliche Intelli­ genz zumindest partiell übertreffen. Dies gelingt bisher in re­ lativ engen Wissensdomänen. Es gibt darüber bereits eine ganze Reihe von einschlägigen umfangreichen Fachbüchern, z. B.Expert systems have been the subject of many years richer investigations among professionals. Expert systems should in the context of "artificial intelligence" the human intelli surpass at least partially. So far this has been achieved in re relatively narrow domains of knowledge. There is already an entire one about it Series of relevant extensive specialist books, e.g. B.

  • - Künstliche Intelligenz, Repräsentation von Wissen und natür­ lichsprachliche Systeme, Frühjahrsschule, Dassel (Solling), 5.-16. März 1984, Springer-Verlag 1985,- Artificial intelligence, representation of knowledge and natural Linguistic systems, spring school, Dassel (Solling), 5th-16th March 1984, Springer-Verlag 1985,
  • - Künstliche Intelligenz und Expertensysteme, Forschungsbericht der Nixdorf Comp. AG (St. E. Savory), Oldenbourg Verlag 1985,- Artificial intelligence and expert systems, research report the Nixdorf Comp. AG (St. E. Savory), Oldenbourg Verlag 1985,
  • - Feigenbaum und McCorduck, die 5. Computer-Generation, aus dem Englischen von T. Westermayr, Birkhäuser Verlag 1984 (engli­ scher Titel "The Fifth Generation, Artif. Intell. and Japan's Comp. Chall. to the World" Addison-Wesley Publish. Comp. 1983),- Feigenbaum and McCorduck, the 5th generation of computers, from the English by T. Westermayr, Birkhäuser Verlag 1984 (Engl title "The Fifth Generation, Artif. Intell. and Japan's Comp. Chall. to the World "Addison-Wesley Publish. Comp. 1983),

sowie sehr viele Aufsätze in Fachzeitschriften, vgl. z. B.as well as many articles in specialist journals, cf. e.g. B.

  • - ITT, Elektr. Nachrw. 60 (1986) H. 2.- ITT, electr. 60 (1986) H. 2.

Die Stärke heutiger Expertensysteme liegt in logischen Schluß­ folgerungen. Unzählige Fragestellungen bzw. Situationen des täg­ lichen Lebens sind aber nicht logisch, sondern nur aus dem Er­ fahrungswissen des Alltages, also durch "Weltwissen", zu beant­ worten. Dieses Weltwissen ist oft außerordentlich verflochten mit psychologischen Aspekten/Fakten und überdies im Gehirn des Menschen nichthierarchisch, assoziativ organisiert. Ein Experten­ system für Weltwissen wurde mit einem Rechner auf der Basis des Von-Neumann-Prinzips bisher nicht realisiert. Daher fällt die Leistungsfähigkeit bisheriger Expertensysteme am Rande ihrer Wis­ sensdomäne steil ab. The strength of today's expert systems lies in a logical conclusion conclusions. Countless questions or situations of the day of life are not logical, but only from the Er everyday driving knowledge, ie through "world knowledge" words. This world knowledge is often extremely intertwined with psychological aspects / facts and moreover in the brain of the People organized non-hierarchically, associatively. An expert system for world knowledge was developed using a computer based on the Von Neumann principle has not yet been implemented. Therefore, the falls Efficiency of previous expert systems on the edge of their knowledge steeply down.  

Die Erfindung strebt daher an, die Leistungsfähigkeit von Exper­ tensystemen an den Rändern ihrer Wissensdomänen durch besondere Prinzipien der Wissensspeicherung und der Inferenzstrategie zu verbessern. Dabei sollen erfindungsgemäße Prinzipien klassische Expertensysteme ergänzen können, oder aber auch eigenständige neuartige Expertensysteme bilden. Die erfindungsgemäßen Prinzi­ pien sollen den Rechner befähigen, Fakten zu gewichten, mög­ lichst auch weitgehend selbständig die Gewichtungen nachträglich zu ändern, nämlich bei Bedarf neue Gewohnheiten nach und nach zu bilden und alte Gewohnheiten nach und nach abzulegen. So können im Prinzip auch die rein logisch/rational nicht ableitbaren "Ausnahmefälle" berücksichtigt werden. Die genannten Funktionen lassen sich zwar mit Hilfe der erfindungsgemäßen Prinzipien im Prinzip auch auf Von-Neumann-Rechnern implementieren, jedoch be­ steht dann die erhebliche Gefahr unzumutbar langer Rechenzeiten.The invention therefore seeks to improve the performance of Exper systems at the edges of their knowledge domains through special Principles of knowledge storage and inference strategy improve. Principles according to the invention are intended to be classic Expert systems can complement, or even independent form novel expert systems. The prince according to the invention pien should enable the calculator to weight facts The weightings are also largely independent afterwards to change, namely to gradually change new habits if necessary form and gradually drop old habits. So can in principle, even those that cannot be derived purely logically / rationally "Exceptions" are taken into account. The functions mentioned can be with the help of the principles of the invention Implement the principle also on Von Neumann computers, however be then there is the considerable risk of unreasonably long computing times.

Die Aufgabe der Erfindung ist also, ein neues Konzept für einen Expertensystem-Rechner zu bieten, der nicht nur eingegebenes Wissen anwendet, sondern vor allem - trotz relativ geringem Auf­ wand - auch nicht vorgeprägte, also "neue" Situationen mit einer gewissen Wahrscheinlichkeit ausreichend zu beherrschen versteht. Darüber hinaus zeigt die Erfindung einen Weg, die Rechenzeiten durch eine spezielle Rechnerstruktur zu verkürzen.The object of the invention is therefore a new concept for one Expert system calculator to offer that not only entered Knowledge applies, but above all - despite a relatively small amount wall - also not pre-shaped, ie "new" situations with a knows how to master it with a certain probability. In addition, the invention shows a way, the computing times shortened by a special computer structure.

Diese Aufgabe wird durch die im Patentanspruch 1 genannten Maß­ nahmen gelöst.This object is achieved by the measure mentioned in claim 1 took solved.

Weiterbildungen der Erfindungen sind in den Unteransprüchen defi­ niert. Derartige Weiterbildungen sollen bei Bedarf auch eine ge­ wisse Lernfähigkeit bzw. selbständige Gewohnheitsänderungen auf­ weisen; der Rechner soll dann vor allem manche Entscheidungskri­ terien/Fakten stärker oder schwächer als bisher zu berücksich­ tigen beginnen, wenn er feststellt, daß der Katalog der von ihm zunächst berücksichtigten Fakten zu mangelhaft war.Developments of the inventions are defi in the dependent claims kidney. Such further training should also if necessary a ge know learning ability or independent habit changes point; the computer should then primarily some decision cri teries / facts more or less than before begin when he finds that the catalog is the one of his facts initially considered was insufficient.

Das Konzept der Erfindung und ihrer Weiterbildungen wird anhand der in den Figuren gezeigten Ausführungsbeispiele näher beschrie­ ben. Es zeigt dieThe concept of the invention and its developments is based on  of the exemplary embodiments shown in the figures ben. It shows the

Fig. 1 ein grob vereinfachtes Modell der mutmaßlichen menschlichen Denkstruktur, wobei dieses Modell als Vorbild für das erfin­ dungsgemäße Konzept diente, Fig. 1 is a rough simplified model of the putative human thought structure with this model served as a model for the modern concept OF INVENTION dung,

Fig. 2 ein Beispiel der Struktur eines von der Erfindung benutzbaren Faktengedächnisses, Fig. 2 shows an example of the structure of a usable in the invention Faktengedächnisses,

Fig. 3 ein Beispiel für ein möglicherweise von der Natur verwende­ tes Konzept, Wiederholungen von Situationen zu erkennen, Figure 3 to detect. An example of a possible use of the natural tes concept, repetition of situations

Fig. 4 ein Beispiel für ein technisches - im Prinzip bekanntes - Konzept zur Erkennung von Wiederholungen, Figure 4 shows an example for a technical -. Known in principle - concept for the detection of repetitions,

Fig. 5 ein Beispiel für das technische Konzept zur Nachbildung des in Fig. 1 gezeigten Modells des menschlichen Gehirns, und Fig. 5 is an example of the technical concept to replicate the model of the human brain shown in FIG. 1, and

Fig. 6 ein Beispiel für den Betrieb eines Mathematik-Expertensystems. Fig. 6 shows an example of the operation of a math expert system.

Die Erfindung wurde in Anlehnung an hypothetische Eigenschaften des menschlichen Gehirns konzipiert. Zu den für die Erfindung bemerkenswerten Gehirneigenschaften gehören in diesem Zusammen­ hang:The invention was based on hypothetical properties of the human brain. To the for the invention remarkable brain properties belong together in this hillside:

  • a) die starke Verflechtung des Weltwissens, d. h. des Wissens über Fakten und Gesetzmäßigkeiten aller Art,a) the strong integration of world knowledge, d. H. of knowledge about facts and laws of all kinds,
  • b) die Beherrschung auch nicht vorgeprägter, also "neuer" Si­ tuationen,b) the mastery of non-pre-shaped, ie "new" Si tuations,
  • c) im Idealfall zusätzlich die Fähigkeit des Selbst-Lernens, sowiec) ideally, the ability to learn by yourself, such as
  • d) im Zusammenhang mit dem Selbst-Lernen ggf. die eigenständi­ ge Bewertung nützlicher und schädlicher Fakten.d) in connection with self-learning, if necessary, the independent Evaluation of useful and harmful facts.

Diese Eigenschaften sind in einer hypothetischen Struktur des Gehirns nach Fig. 1 implementiert. Dieses Gehirnmodell ent­ spricht also dem Konzept des erfindungsgemäßen Expertensystem- Rechners, der nicht völlig nach Von-Neumann-Prinzipien aufgebaut ist. Dieses Gehirnmodell/dieser Rechner entspricht also einem "beratenden Experten". Ein in Fig. 1 nicht gezeigter äußerer Ratsuchender kann also die Fähigkeit des Beraters/Gehirns = Ex­ pertensystem-Rechner nutzen. In einem (beim Gehirn langjährigen) Lernprozeß haben sich im Gehirn/Rechner zahlreiche zusammengehö­ rige Begriffskombinationen ("Gedanken-Bausteine") gebildet, - es sind dies die in Fig. 1 gezeigten Eingabe-Bausteine EBst und die im Prinzip identisch arbeitenden Ausgabe-Bausteine ABst. Im menschlichen Gehirn werden solche "Bausteine" durch entsprechen­ de Gehirnzellen gebildet. Im Rechner werden solche "Bausteine" nicht unbedingt durch eigene separate Hardware gebildet; sie können auch nur eigene besondere Softwareabschnitte darstellen; hierbei können die Bausteine EBst und ABst evtl. auch Teile der Hardware- oder Software-Einheiten S/P bzw. P/S sein, welche ih­ rerseits vor allem zu Serien/Parallelumsetzungen bzw. Parallel/ Serienumsetzungen dienen; die Bausteine EBst und ABst sind nur der besseren Darstellung wegen außerhalb dieser Einheiten S/P, P/S gezeichnet. Solche Gedanken-Bausteine EBst und ABst können also z. B. jeweils einzelnen Fragen und/oder Aufforderungen und/ oder Informationen über Fakten entsprechen.These properties are implemented in a hypothetical structure of the brain according to FIG. 1. This brain model therefore corresponds to the concept of the expert system computer according to the invention, which is not completely based on Von Neumann principles. This brain model / computer therefore corresponds to an "advisory expert". An external advice seeker, not shown in FIG. 1, can thus use the ability of the advisor / brain = expert system computer. In a (long-term brain) learning process, numerous related term combinations ("thought modules") have formed in the brain / computer - these are the input modules EBst shown in FIG. 1 and the output modules working in principle in an identical manner Sect. Such "building blocks" are formed in the human brain by corresponding brain cells. In the computer, such "building blocks" are not necessarily formed by separate hardware; they can only represent your own special software sections; Here, the modules EBst and ABst may also be parts of the hardware or software units S / P or P / S , which in turn serve primarily for series / parallel conversions or parallel / series conversions; The blocks EBst and ABst are drawn only for the sake of better illustration because of these units S / P , P / S. Such thought modules EBst and ABst can, for. B. each correspond to individual questions and / or requests and / or information about facts.

Durch kurze Symbolfolgen, welche die Eingabe E bilden, werden zugehörige Eingabe-Bausteine EBst = a 1 . . . x 1 aufgerufen und mittels Serien/Parallelumsetzern S/P zu Mustern bzw. zu entspre­ chenden Codeworten aufgefächert. Diese sind mit dem Kontextspei­ cher KS verbunden, der auch der Verarbeitung dient, indem der Kontextspeicher KS Fakten einer Art jeweils Fakten anderer Art zuordnet und z. B. eine faktenbewertende/gewichtende Einheit Bew mitenthält. Auch dieser Kontext-Speicher KS kann durch Software­ abschnitte statt durch Hardware gebildet werden. Als Ergebnis der Verarbeitung wird vom Kontextspeicher KS ein Ausgabe-Bau­ stein ABst = a 2 . . . f 2 aufgerufen, welcher über einen Parallel/ Serienumsetzer P/S eine Ausgabe A, z. B. als Symbolfolge (Wort­ folge) an den in Fig. 1 nicht gezeigten Ratsuchenden übermittelt. Die Reaktion des Ratsuchenden wird wiederum als Symbolfolge auf den Eingang E gegeben und löst den nächsten Arbeitszyklus des Gehirns/Rechners aus. An die Stelle dieses äußeren Rückkopplungs­ kreises kann auch ein unmittelbarer innerer Rückkopplungskreis (serielle Übergabe sTr) treten, wobei die Rechnereingang/Gehirn­ eingang angebrachte Weiche W kontextgesteuert den Eingang E ab­ trennt. Die mittels des Kontextspeichers KS im Gehirnzentrum/ Verarbeitungszentrum des Rechners abgewickelten Denkvorgänge werden also über die im Bereich der Eingabe E liegende Weiche W entweder von außen, vgl. E, den Eingabe-Bausteinen EBst = a 1 . . . x 1 und damit dem Kontextspeicher KS aufgeprägt (äußere Einflüs­ se), oder sie werden intern im Gehirn/Rechner über den Rückkopp­ lungsweg KS-sTr-W geschlossen, wobei im zweiten Fall die Weiche W kontextgesteuert die äußeren Umgebungseinflüsse E auch abschot­ ten kann.Using short symbol sequences that form the input E , associated input modules EBst = a 1 . . . x 1 called and fanned out by means of serial / parallel converters S / P to patterns or corresponding code words. These are connected to the context memory KS , which is also used for processing by the context memory KS assigning facts of one type to facts of a different type and z. B. includes a fact-evaluating / weighting unit Bew . This context memory KS can also be formed by software sections instead of hardware. As a result of the processing, an output component ABst = a 2 is output from the context memory KS . . . f 2 called, which via a parallel / serial converter P / S an output A , z. B. transmitted as a symbol sequence (word sequence) to the seeker not shown in FIG. 1. The reaction of the person seeking advice is in turn given as a symbol sequence to input E and triggers the next work cycle of the brain / computer. Instead of this outer feedback circuit, a direct inner feedback circuit (serial transfer sTr) can also take place, the computer input / brain input attached switch W separating the input E from context- controlled . The thinking processes processed by means of the context memory KS in the brain center / processing center of the computer are thus carried out either from the outside via the switch W lying in the area of the input E , cf. E , the input blocks EBst = a 1 . . . x 1 and thus the context memory KS (external influences), or they are closed internally in the brain / computer via the feedback path KS-sTr-W , whereby in the second case the switch W can also contextually shut off the external environmental influences E.

Die Erfindung ermöglicht, den Rechner auch so zu bauen, daß Speicherzellen die Funktionen von Neuronen des Gehirns überneh­ men. Bevorzugt werden hierbei die durch Nervenbahnen (Axone) her­ gestellten Beziehungen zwischen verschiedenen Neuronen durch Ver­ zeigerung der Speicherzellen, also durch Adreßbeziehungen zwi­ schen den Speicherzellen nachgebildet, die der Zusammenarbeit dieser Zellen ein möglichst assoziatives Speicherverhalten ge­ statten. Ein solcher Rechner orientiert sich also nicht mehr an Von-Neumann-Prinzipien.The invention also makes it possible to build the computer in such a way that Memory cells take over the functions of neurons in the brain men. The nerve pathways (axons) are preferred relationships between different neurons by Ver generation of the memory cells, that is, through address relationships between mimicked the memory cells, the cooperation an associative storage behavior of these cells equip. Such a computer is no longer oriented Von Neumann principles.

Eine wichtige Rolle fällt der Bewertung Bew von aufgerufenen einzelnen der Begriffskombinationen/Eingangsbausteine EBst = a 1 . . . x 1 zu: die Bewertung sorgt dafür, daß vorteilhafte Ver­ bindungen im Neuronennetz vorläufig geschaltet und durch wie­ derholten Gebrauch ggf. ein höheres Gewicht zugeteilt erhalten, also weiter verstärkt werden (Prägung von Verhaltensweisen), al­ so schließlich Dauerschaltungen bilden, und daß unerwünschte Verbindungen bzw. unsinnige Gedankenkombinationen im Neuronen­ netz möglichst unterbleiben bzw. nach und nach unterdrückt wer­ den. Die prägungsverstärkende Bewertung spricht dann also beim Benutzen von zufällig einmal falsch geschalteten Verbindungen bzw. fehlerhaften Begriffskombinationen nicht oft genug mehr an und unvorteilhafte Schaltungen bilden sich wieder zurück.An important role is played by the evaluation Bew of the individual combinations of terms / input modules EBst = a 1 . . . x 1 zu: The evaluation ensures that advantageous connections in the neural network are switched provisionally and, as a result of repeated use, are given a higher weight, i.e. are further strengthened (behavioral characteristics), and thus ultimately form permanent circuits, and that undesired connections are formed or nonsensical combinations of ideas in the neuron network as little as possible or who are gradually suppressed. The embossing-enhancing evaluation does not respond often enough when connections that are accidentally switched incorrectly or incorrect combinations of terms are used, and disadvantageous circuits recede.

Neben jenen Dauerschaltungen, die dem Langzeitgedächtnis ent­ sprechen, gibt es also im Kontextspeicher KS und/oder schon in Eingabe-Bausteinen EBst viele, allein durch Benutzung zusätzlich (!) wirksame, zeitlich abklingende Prägungseffekte. Ein bereits gebahnter Weg wird nach einer Inanspruchnahme vorübergehend noch leichter gangbar, so daß ein bevorzugter Wiederaufruf möglich ist. Auf diese Weise läßt sich zuvor gedachte Gedanken wie­ der aufsetzen, vgl. das Kurzzeitgedächtnis. Wird dieser vorge­ bahnte Weg aber nicht bald genug benutzt (oder gar als falsch erkannt), dann klingt die Bereitschaft ab, ihn in ähnlichen Si­ tuationen sofort zur Benutzung anzubieten.In addition to those permanent circuits that correspond to long-term memory, there are many in the context memory KS and / or already in input blocks EBst many additional, effective (!) Embossing embossing effects alone. A path that has already been cleared becomes temporarily even easier to use after being used, so that a preferred recall is possible. In this way, previously thought thoughts can be put on, cf. the short-term memory. However, if this planned path is not used soon enough (or even recognized as incorrect), the willingness to offer it for use immediately in similar situations declines.

Die eigentliche Informationsverarbeitung findet nach diesem Mo­ dell durch entsprechend verknüpfte Zuordnungen mit Hilfe des Kontextspeichers KS statt. Eine Voraussetzung hierfür sind die zuvor durch Erfahrung zu prägenden Verbindungen zum, vom und im Kontextspeicher KS.The actual information processing takes place according to this model by means of correspondingly linked assignments with the help of the context memory KS . A prerequisite for this is the connections to, from and in the context memory KS that are to be characterized by experience.

Ein relativ einfaches Arbeitsprinzip für einen Kontextspeicher KS ist das Abspeichern aller wichtigen Fakten in der Reihenfol­ ge ihres zeitlich nacheinander erfolgenden Auftretens. Je weiter jeweils eine Gedankenverarbeitung/Beratungs-Prozeß fortschreitet, umso mehr Verarbeitungswege/Schalter/Kippstufen/Unterprogrammab­ schnitte werden aktiv einbezogen, die irgendwann - z. B. bei Über­ gang auf einen völlig anderen Beratungs-Prozeß - wieder zurück­ gestellt werden.A relatively simple working principle for a context memory KS is the storage of all important facts in the order in which they occur in succession. The further a thought processing / consulting process progresses, the more processing paths / switches / flip-flops / subroutine sections are actively included, which at some point - e.g. B. in transition to a completely different advisory process - be put back.

Die Fig. 2 zeigt ein einfaches Beispiel für ein Faktengedächtnis im Kontextspeicher KS: Der Rechner enthält Regelwissen. Eine In­ formation, eine Frage, ein Rat bzw. eine Aufforderung a 2 . . . f 2 wird durch Prämissen bzw. Fakten, nämlich durch Bausteine a 1 . . . x 1 aufgerufen. Der Expertensystem-Rechner muß den Ratsuchenden im Dialog sukzessiv nach solchen Prämissen fragen. Sobald der Rechner alle Prämissen/Fakten abfragte/klärte, die jeweils zur Erteilung eines Rates bzw. zu einer Aufforderung ausreichen, gibt der Rechner diesen Rat/Aufforderung ebenfalls als Ausgabe A über einen entsprechenden Ausgabe-Baustein ABst ab. . Figure 2 shows a simple example of a memory facts in the context memory KS: The computer contains a rule knowledge. An information, a question, advice or a request a 2 . . . f 2 is determined by premises or facts, namely by building blocks a 1 . . . x 1 called. The expert system computer must successively ask the person seeking advice for such premises in dialogue. As soon as the computer queries / clarifies all premises / facts that are sufficient to give advice or to request, the computer also gives this advice / request as output A via a corresponding output module ABst .

Als Beispiel diene eine Anlageberatung: Ein Ausgabe-Baustein/Aus­ gabe-Programmabschnitt ABst = a 2 des Beraters/Rechners möge "Ver­ dienen Sie über oder unter 100 000,- DM jährlich?" aussagen. Ei­ ne mögliche Antwort des Ratsuchenden heißt z. B.: "Ich verdiene über 100 000,- DM jährlich." Dieser Antwort ist z. B. der Einga­ be-Baustein EBst = a 1 zugeordnet. Der Rechner soll nun die Dialog­ führung zunächst nicht straff selbst übernehmen, sondern dem Ratsuchenden überlassen, wie es ein guter Anlageberater in der Eröffnungsphase des Gesprächs wohl auch macht. Wenn der Ratsu­ chende zufällig mit dem Eingabe-Baustein EBst = a 1 "Ich verdiene über 100 000,- DM jährlich" beginnt, muß z. B. die Ausgabe A eine Ausgabe-Frage AFF nach weiteren Fakten stellen; es muß also z. B. der Ausgabe-Baustein b 2 des Rechners "Besitzen Sie bereits Im­ mobilien?" aufgerufen werden. Fängt der Ratsuchende aber mit dem Stoßseufzer EBst = c 1 (z. B. "Ich habe über 1 Million Schulden") an, folgt aber nochmals der Ausgabe-Baustein ABst = a 2 wie oben, damit der Rechner den Dialog auf eine bewährte Antwort-Strategie eingrenzen kann.An example is investment advice: An output module / output program section ABst = a 2 of the advisor / computer may "Do you serve over or under DM 100,000 annually?" statement. A possible answer from the person seeking advice is called e.g. For example: "I earn over DM 100,000 a year." This answer is e.g. B. assigned the input block EBst = a 1 . The computer should not initially take over the dialogue itself, but should leave it to the person seeking advice, as a good investment advisor will probably do in the opening phase of the conversation. If the Ratsu chende happens to start with the input module EBst = a 1 "I earn over 100,000, - DM per year", z. B. Issue A ask an issue AFF for further facts; So it must be z. B. the output module b 2 of the computer "Do you already have furniture?" be called. However, if the person seeking advice starts with the sigh EBst = c 1 (e.g. "I have over 1 million debts"), then again follows the output module ABst = a 2 as above, so that the computer can start the dialog for a proven answer Strategy can narrow down.

In Fig. 2 bedeuten die dicken Punkte unter a 1 . . . x 1 jeweils ge­ speicherte Eingabe-Fakten EF, also gespeicherte Fakten a 1 . . . x 1. Die dadurch im Kontextspeicher KS entstehenden Muster sind durch­ numeriert, vgl. die fortlaufenden Musternummern 1 . . . 13. Muster Nr. 1 bedeutet also "Eingabe-Faktum a 1" bzw. "EBst a 1" ist auf­ gerufen. Muster Nr. 9 kennzeichnet einen Zustand, in dem bereits die vier Eingabe-Fakten a 1, b 1, c 1 und d 1 aufgerufen wurden. Mit den nach unten zeigenden Pfeilen wird symbolisiert, welche ge­ speicherten Fakten a 1 . . . f 1 zusammenwirken müssen, um einen je­ weils zugehörigen Ausgabe-Baustein ABst = a 2 . . . f 2 zu einer Ausgabe zu veranlassen (Pfeil nach oben). Ein Ausgabe-Baustein mit der Bezeichnung n 2 sei hier, der Übersichtlichkeit wegen, jeweils nur eine Frage nach einem Faktum mit der Bezeichnung n 1.In Fig. 2, the thick points under a 1 . . . x 1 stored input facts EF , i.e. stored facts a 1 . . . x 1 . The resulting patterns in the context memory KS are numbered by, cf. the consecutive pattern numbers 1. . . 13. Pattern No. 1 means "input fact a 1 " or "EBst a 1 " is called. Pattern No. 9 indicates a state in which the four input facts a 1 , b 1 , c 1 and d 1 have already been called up. The arrows pointing downwards symbolize which stored facts a 1 . . . f 1 must cooperate in order to have an associated output module ABst = a 2 . . . f 2 to cause an expenditure (arrow up). For the sake of clarity, an output module with the designation n 2 is only a question of a fact with the designation n 1 .

Der Rechner folgt einer Antwortstrategie, die unterschiedlich je nach Dialogeröffnung reagiert. Was geschieht nämlich, wenn der Ratsuchende unerwartete Fakten eingibt?: Wenn der Ratsuchende nicht mit a 1 beginnt, wird in diesem Beispiel der Dialog auf die von vorn ablaufende Folge a 1, b 1 . . . zurückgeführt. Fängt der Dialog z. B. mit der Eingabe "c 1 an, wird sich zunächst die in Muster Nr. 3 geprägte Strategie und anschließend Muster Nr. 12 einstellen, falls nun der Ratsuchende "a 1" eingab. Dieses Mu­ ster Nr. 12 sei "neu", d. h. es sei zuvor noch nie in einer Prä­ gungsphase berücksichtigt worden. Es gibt zuvor also keine Ver­ bindung zu einem Ausgabefaktum AFF, das allein die Kombination "a 1 + c 1 berücksichtigt. In den bereits geprägten Mustern Nr. 8, 9, 10 ist zwar die Kombination "a 1 + c 1 enthalten; sie reicht aber noch nicht zum Aufruf der dort zugehörenden Ausgabe-Baustei­ ne ABst, nämlich d 2, e 2, f 2 aus. Es sind nämlich noch nicht die Fakten b 1, d 1 bzw. e 1 als weitere Prämissen eingegeben. Demnach wirkt Muster Nr. 12 zunächst nur wie Muster Nr. 1 und bewirkt die Ausgabe AFF "b 2" = "Frage nach Faktum b 1". Falls daraufhin der Ratsuchende das Faktum b 1 eingibt, entsteht im Kontext-Spei­ cher KS das Muster Nr. 8 mit der Ausgabe des Ausgabe-Bausteins d 2. Damit ist die ursprünglich geprägte Folge mit den Mustern Nr. 9 und 10 als weitere Folgefragen wiederhergestellt. - Ähn­ lich verläuft der Dialog bei Beginn mit dem Eingabe-Faktum d 1, vgl. Muster Nr. 4. Nach der Eingabe der Fakten a 1 und b 1 (Mu­ ster Nr. 13) wird nach Faktum c 1 gefragt. Daraufhin entsteht Mu­ ster Nr. 9 mit der Frage nach e 1, wobei die Frage nach dem be­ reits bekannten Faktum d 1 ausgelassen wird. Der Rechner verhält sich also, dank der Speicherung der jeweils früher eingegebenen Fakten im Kontext-Speicher KS, intelligent!The computer follows a response strategy that reacts differently depending on the dialog opening. What happens if the person seeking advice enters unexpected facts ?: If the person seeking advice does not begin with a 1 , in this example the dialog is based on the sequence a 1 , b 1 that starts from the beginning. . . returned. Does the dialogue begin? B. with the input "c 1 , the strategy embossed in pattern no. 3 will appear first and then pattern no. 12 if the person seeking advice entered " a 1 ". This pattern no. 12 was" new ", This means that it had never been taken into account in an embossing phase before. There is therefore no connection to an expenditure factor AFF that only takes the combination "a 1 + c 1 into account. The combination "a 1 + c 1 is contained in the already embossed samples Nos. 8, 9, 10, but it is not yet sufficient to call up the associated output components ABst , namely d 2 , e 2 , f 2 The facts b 1 , d 1 and e 1 have not yet been entered as further premises, so pattern no. 12 initially only acts like pattern no. 1 and causes the output AFF "b 2 " = "question about fact b 1 ". If the person seeking advice then enters the fact b 1 , the context memory KS creates pattern no. 8 with the output of the output module d 2. This means that the originally embossed sequence with patterns no. 9 and 10 as Further follow-up questions restored - The dialog is similar at the beginning with the input fact d 1 , see sample No. 4. After entering the facts a 1 and b 1 (pattern no. 13), you are asked for fact c 1 Thereupon Pattern No. 9 arises with the question of e 1 , whereby the question of the already known fact d 1 is omitted ner behaves intelligently, thanks to the storage of the previously entered facts in the context memory KS !

Aber wie läßt sich eine Eindeutigkeit der Decodierung der Muster a 1 . . . f 1 . . . x 1 auf die Ausgangs-Bausteine a 2 . . . f 2 erreichen? Wa­ rum erzeugt also z. B. Muster Nr. 10 nicht gleichzeitig Fragen nach allen Fakten a 1 bis f 1? - Die Eindeutigkeit wäre z. B. mit einer Binär-Decodierung möglich, die gezielt auch hemmende Ver­ bindungen knüpft. Ein zugehöriger Prägungsmechanismus ist aller­ dings schwer realisierbar. Wenn man jedoch für den Faktenspei­ cher z. B. von der Funktion eines multistabilen, aus vielen Kipp­ stufen bestehenden Flip-Flop ausgeht, bei dem sich nur die ein­ zige Kippstufe mit den meisten Erregungsüberschüssen durchsetzt, wird das Problem auf eine Gewichtung der Erregung und eine Maxi­ mum-Bestimmung im Spektrum der Erregungen zurückgeführt: Das Aus­ gabefaktum mit den derzeit stärksten Erregungsbeiträgen wird aus­ gewählt: Muster Nr. 10 kann dann nur den Ausgabe-Baustein f 2, Mu­ ster Nr. 9 nur den Ausgabe-Baustein e 2 aufrufen! Komplexe Muster, vgl. Nr- 10, können daher die weniger komplexen Muster, vgl. Nr. 9, unterdrücken, was bedeutet, daß weitergehende Erfahrungen ur­ sprüngliche Erfahrung nicht mehr "zu Wort" kommen lassen. Eine ursprüngliche Erfahrung, vgl. Nr. 1 und 7, kann dann nur durch das ursprüngliche Faktumsmuster/Ereignismuster EF aufgerufen wer­ den, also durch a 1 bzw. durch a 1 + b 1.But how can the uniqueness of the decoding of the patterns a 1 . . . f 1 . . . x 1 to the output modules a 2 . . . reach f 2 ? So why produces z. B. Sample No. 10 Do not ask questions about all facts a 1 to f 1 at the same time? - The uniqueness would be e.g. B. possible with a binary decoding, which also specifically binds inhibitory connections. An associated stamping mechanism is, however, difficult to implement. However, if one for the fact memory z. B. assumes the function of a multistable flip-flop consisting of many flip-flops, in which only the single flip-flop with the most excitation surpluses prevails, the problem is a weighting of the excitation and a maximum determination in the spectrum of excitations returned: The output factor with the currently strongest excitation contributions is selected from: Pattern No. 10 can then only call the output module f 2 , pattern No. 9 only the output module e 2 ! Complex patterns, cf. No. 10, can therefore the less complex patterns, cf. No. 9, suppress, which means that further experiences no longer allow "original" experiences to come. An original experience, cf. Nos. 1 and 7, can then only be called up by the original fact pattern / event pattern EF, i.e. by a 1 or by a 1 + b 1 .

Während also einerseits Muster größerer Aktivität solche geringe­ rer Aktivität unterdrücken, dürfen andererseits Muster geringe­ rer Aktivität keine Ausgabe-Bausteine ABst aufrufen, die größe­ ren Aktivitäten zugeordnet sind. Wenn im Gehirn/Rechner z. B. mit Fakten a 1, b 1, c 1 nur das Muster Nr. 8 aufgerufen wird; wie wird dann verhindert, daß im Gehirn/Rechner auch die Muster Nr. 9 und 10 aktiviert werden?: dadurch, daß vier bzw. fünf verschiedene erregende Aktivitäten von vier bzw. fünf verschiedenen Eingangs- Bausteinen EBst notwendig sind, um die mit der Prägung und mit Gewichtungen festgeschriebene Zündschwelle von hemmenden Ein­ flüssen zu überwinden! - Der Auswahlalgorithmus ist also folgen­ dermaßen zu ergänzen: Das Ausgabefaktum mit den meisten bzw. stärksten Erregungsbeiträgen wird ausgewählt unter der Voraus­ setzung, daß durch die Erregungsbeiträge die Zündschwelle, also eine bestimmte Gewichtung überschritten wird. Sollten sich dann mehrere Ausgabefakten dieser Auswahl stellen, erfolgt die end­ gültige Auswhal nach einer plausiblen Strategie, z. B. allein durch Zufall, oder gemäß Ähnlichkeiten zu vorhergehenden Aus­ gaben, oder nach irgendeiner anderen plausiblen Strategie.So while on the one hand patterns of higher activity suppress such lower activity, on the other hand patterns of lower activity may not call output modules ABst that are assigned to larger activities. If in the brain / computer z. B. with facts a 1 , b 1 , c 1 only pattern no. 8 is called; how is it then prevented that patterns 9 and 10 are also activated in the brain / computer ?: by the fact that four or five different exciting activities of four or five different input components EBst are necessary in order to match the ones with the embossing and to overcome the ignition threshold of inhibiting influences, which is fixed with weights! - The selection algorithm must therefore be supplemented as follows: The output factor with the most or strongest excitation contributions is selected provided that the ignition threshold, ie a certain weighting, is exceeded by the excitation contributions. If several output facts of this selection then arise, the final selection is made according to a plausible strategy, e.g. B. only by chance, or according to similarities to previous issues, or by any other plausible strategy.

Wie eingangs erwähnt, soll der Rechner gemäß der Erfindung auch neue, noch nicht erfahrene Situationen mit gewisser Wahrschein­ lichkeit beherrschen können. Voraussetzung dafür ist, daß die neuen Situationen bereits erfahrenen Situationen in gewisser Weise ähnlich sind, und daß dies durch eine "Ähnlichkeitsco­ dierung" berücksichtigt wird. Wie kann man sich eine solche "Ähnlichkeitscodierung" vorstellen? Das läßt sich an Fig. 2 schlecht demonstrieren, weil die Muster Nr. 1 bis 10 alle ein­ ander sehr unähnlich sind und jeweils zu sehr verschiedenen Aus­ gaben führen. Würde z. B durch eine neue Situation das Muster Nr. 11 entstehen, bei dem zusätzlich der Eingabe-Baustein EBst "x 1" aktiviert wird, so erfolgt dennoch die Ausgabe f. Sollte sich danach diese Ausgabe als "verkehrt" herausstellen, so muß die neue, richtige Zuordnung erst "gelernt" werden! Ähnlichkeits­ codierung bedeutet hier also: es werden zunächst lediglich die bereits "gelernten" Zuordnungen ausgewertet, bisher nicht akti­ vierte Speicherplätze werden ignoriert.As mentioned at the beginning, the computer according to the invention should also be able to handle new, not yet experienced situations with a certain probability. The prerequisite for this is that the new situations are somewhat similar to situations already experienced, and that this is taken into account by means of a "similarity coding". How can you imagine such a "similarity coding"? This is difficult to demonstrate in Fig. 2, because the pattern Nos. 1 to 10 are all very different and each result in very different issues. Would z. B Pattern No. 11 is created by a new situation, in which the input module EBst "x 1 " is additionally activated, so the output f is nevertheless carried out. If this issue turns out to be "wrong" afterwards, the new, correct assignment must first be "learned"! Similarity coding here means that initially only the "learned" assignments are evaluated; previously unactivated memory locations are ignored.

Das gewissermaßen "statische" Auswerten von gespeicherten Fakten a 1 . . . x 1 ohne Berücksichtigung der Reaktionen der Ratsuchenden, genügt nicht, um allen wichtigen Lebenssituationen gerecht zu werden. In einem Dialog zwischen Menschen wird z. B. auf wieder­ holte Fragen (z. B.: "Stimmt es, daß +3 + 6 = 6" ist′") entweder ge­ antwortet: "Das haben Sie doch schon einmal gefragt!" - Oder aber der Gefragte/Rechner rechnet erneut "+3 + 3 = 6", indem er die wie­ derholte Eingabe als neue Eingabe wertet. Auf welche Weise die Evolution diese nicht einfache, aber für die menschliche Intel­ ligenz bedeutungsvolle Aufgabe gelöst hat, ist unbekannt. Viel­ leicht ist sie mit unserem Kurzzeitgedächtnis verbunden. Eine der Möglichkeiten deutet Fig. 3 an: Durch die zusätzliche, kurz­ fristige Erregungsverstärkung/Gewichtung "bei Gebrauch" dringen wiederholte Ereignisse/Situationen Sitx von Wiederholung zu Wie­ derholung tiefer in den Abbildungskomplex Abbx ein und rufen da­ mit verschiedene, durch die Zeitfolge t 1 . . . t 3 modifizierte Be­ deutungen/Gewichtungen der Abbildungen Abbx auf, die entweder individuell mit x 1, x 2, x 3 (Beispiel: Addition "+3 + 3 + 3") oder allgemein mit erster Wiederholung 1. Rep., zweiter Wiederholung 2. Rep. usw. (Beispiel: Antwort auf wiederholte Frage) ausgewer­ tet werden. Dies ist sicher keine sehr exakte Diskriminierung besonders für den Fall, daß sich Wiederholungen in der Folge von Eingaben besonders oft häufen.The sort of "static" evaluation of stored facts a 1 . . . x 1 without considering the reactions of those seeking advice, is not enough to do justice to all important life situations. In a dialogue between people, e.g. B. to repeated questions (eg: "Is it true that +3 + 6 = 6" is ′ ") either answered:" You asked that before! "- Or the respondent / computer does the math "+3 + 3 = 6" again, by evaluating the repeated input as a new input. How evolution has solved this task, which is not simple but meaningful for human intelligence, is unknown. It is much easier with ours short-term memory connected One of the ways indicated 3 to:.. the additional short-term excitation gain / weight "in use" penetrate repeating events / situations SITX from repetition to How derholung deeper into the imaging complex Abbx and call there with different, by the Sequence of times t 1 ... t 3 modified meanings / weights of the figures Abbx , either individually with x 1 , x 2 , x 3 (example: addition "+3 + 3 + 3") or generally with the first repetition 1. Rep., Second repetition 2nd Rep. Etc. (Example: answer to repeated question). This is certainly not a very precise discrimination, especially in the event that repetitions are particularly frequent as a result of entries.

Technisch lassen sich mehrere Lösungen hierfür denken. Fig. 4 beschreibt einen Weg, der partiell auch von der Evolution be­ schritten sein könnte. Die Aktivierung von Speichern bzw. von Adreßräumen folgt einer Ereignisspur SitSp, in der nur jeweils ein Speicher bzw. ein Adreßraum aktiv ist (wie es auch im mensch­ lichen Bewußtsein in ähnlicher Weise bei einer Gedankenfolge der Fall ist). Zum Beispiel wird in einem Speicher die Addition von "+3 + 4" registriert, wobei dieser Speicher jeweils erneut aktiviert wird, sobald diese Addition von den betreffenden Eingabe-Bausteinen EBst angeregt wird. - Die Eingabe-Bausteine EBst werden übrigens am besten vom Rechner impulsweise aufgerufen, damit die von sol­ chen Eingabe-Bausteinen angeregten Folgeketten nicht ungebremst durchlaufen können.Technically, there are several solutions for this. Fig. 4 describes a path that could also be partially followed by evolution. The activation of memories or of address spaces follows an event track SitSp in which only one memory or one address space is active at any one time (as is also the case in human consciousness with a sequence of thoughts). For example, the addition of "+3 + 4" is registered in a memory, this memory being reactivated as soon as this addition is stimulated by the relevant input modules EBst . - Incidentally , the input modules EBst are best called by the computer in pulses so that the subsequent chains stimulated by such input modules cannot run through unchecked.

Anhand von Fig. 2 wurde eine Dialogregel erläutert, die bereits in allen Einzelheiten gelernt und fest als Dauerschaltung ge­ speichert ist - es gibt hier sozusagen bereits eine in das "Un­ terbewußtsein übergegangene Strategie, nach welcher der Dialog erfolgreich abgewickelt werden kann. In vielen Fällen wird es aber eine solche geschlossene Strategie nicht geben. Dann muß vom Gehirn/Rechner "bewußt" erkannt werden können, daß die mit­ geteilten Fakten noch nicht ausreichen. Diese Erkenntnis des Mangels stößt daraufhin einen bewußten Gedankengang bzw. einen Verarbeitungsprozeß des Rechners zum Aufspüren noch fehlender/ relevanter Fakten an. Der Mensch geht dabei im allgemeinen ziem­ lich wahllos die taxonimischen Zusammenhänge durch, was wegen der starken Verflechtung der Begriffe, der erkannten Gesetzmä­ ßigkeiten und der damit bei ihm verbundenen Assoziationen rela­ tiv schnell, und zwar "assoziativ", abläuft. Er kann aber auch einer strengen, übergeordneten, also "gelernten Strategie fol­ gen, z. B. dem "backward chaining".A dialog rule was explained with reference to FIG. 2, which has already been learned in every detail and is permanently stored as a permanent circuit - there is, so to speak, a strategy which has passed into the "subconscious" and according to which the dialog can be successfully carried out. In many cases But if there is no such closed strategy, then the brain / computer must be able to recognize "consciously" that the facts shared are not yet sufficient. This knowledge of the defect then triggers a conscious train of thought or a processing process of the computer to be tracked down The person generally goes through the taxonomic contexts quite indiscriminately, which happens relatively quickly, namely "associatively" due to the strong interweaving of the terms, the recognized legalities and the associated associations But it can also follow a strict, overarching, "learned strategy" gene, e.g. B. "backward chaining".

Wie die Evolution das "Erkennen der Unvollständigkeit" gelöst hat, ist wiederum unbekannt. Technisch läßt sich dies mit wenig Aufwand angenähert z. B. durch ein Zeitglied/"watch dog" reali­ sieren, welches signalisiert, wenn Reaktionen ausbleiben. Läuft das Zeitglied ab, ohne daß eine noch notwendige Eingabe E auf­ trat, bedeutet dies "Eingabe ist unvollständig", wodurch darauf­ hin notwendige Folgeaktivitäten angestoßen werden können.How evolution solved the "recognition of incompleteness" is again unknown. Technically, this can be approximated with little effort z. B. Reali sier by a timer / "watch dog", which signals when there are no reactions. If the timer expires without an input E still occurring, this means "input is incomplete", which means that necessary follow-up activities can be triggered.

Ein Expertensystem braucht im allgemeinen nicht aus der Erfah­ rung zu lernen, weil ihm der Knowledge-Engineer bereits bewerte­ tes Wissen eingibt. Später vielleicht realisierbare "selbstler­ nende Expertensysteme" müssen die Bewertung aus "eigener Kraft" vornehmen und brauchen dazu eigene Wertmaßstäbe. Solche Wertmaß­ stäbe können in voller Differenziertheit zuvor auch vom Menschen eingegeben werden. Noch eine Stufe komplizierter wird es jedoch, wenn das Expertensystem den Wertmaßstab selbst aufzubauen hat. In jedem Fall sollte dann aber dem Expertensystem ein "Bewer­ tungsnukleus" für Erfolg/Mißerfolg mitgegeben werden, der sich nach dem jeweiligen Einsatzgebiet des Expertensystems richtet.An expert system generally does not need experience learning because the knowledge engineer is already evaluating it enter knowledge. Maybe later realizable "selfless expert systems "must use their own strength to assess and need their own standards of value. Such a measure of value Staff can also be fully differentiated from humans beforehand can be entered. It gets even more complicated, if the expert system has to build the standard of value itself. In any case, the expert system should then have a "rating tungsnucleus "for success / failure, which itself according to the respective field of application of the expert system.

Selbstlernen heißt aus eigener Erfahrung lernen. Die Umwelt bie­ tet Erfahrungen an, die das Expertensystem eigenständig auswer­ ten soll. Dazu muß das Expertensystem auch die "Sprache" der Um­ welt verstehen. Die Umwelt wird sich im allgemeinen - im weite­ sten Sinne - natürlichsprachlich präsentieren, also sollte das Expertensystem auch natürlichsprachlich zu programmieren sein. Dies ist offenbar eine Voraussetzung für selbstlernende Exper­ tensysteme (wobei es sich bei einer spezifischen Umwelt auch einmal um eine spezifische "natürliche" Sprache handeln mag, z. B. um bildliche Muster).Self-learning means learning from your own experience. The environment bie experiences that the expert system evaluates independently should. To do this, the expert system must also use the "language" of the order understand the world. The environment will change in general - widely most senses - present in natural language, so that should be Expert system can also be programmed in natural language. This is obviously a requirement for self-learning experts systems (which also applies to a specific environment may be a specific "natural" language, e.g. B. to pictorial patterns).

Fig. 5 zeigt beispielhaft einige Grundzüge eines entsprechen­ den bevorzugten technischen, wenig aufwendigen Konzepts, wobei hier der Übersichtlichkeit wegen die Funktion des "Selbstler­ nens" ausgeklammert ist. Das Konzept wird in einem speziellen Rechner realisiert, in welchem Speicherzellen, bzw. entsprechen­ de kleine Softwareabschnitte, die Funktion von Neuronen des Ge­ hirns übernehmen. An die Stelle der Verdrahtung treten also z. B. "Zeiger", also Adressenhinweise, vgl. Adr, die vor allem durch Software gebildet sein können, mit deren Hilfe von einer Zelle auf Folgezellen verwiesen wird. Es gibt ein Repertoire von durch­ numerierten Eingabe- bzw. Ausgabe-Bausteinen, vgl. EBstNr und ABstNr, die auch reine Software-Bausteine darstellen können und die teils der Eingabe E, teils der Ausgabe A, teils beiden, vgl. E/ABst, zugeordnet sind. Über eine Weiche W, die ebenfalls evtl. durch einen Softwareabschnitt statt durch reine Hardware gebil­ det wird, ist es möglich, ausgelesene Ausgabe-Bausteine ABst oh­ ne Beeinflussung von außen wieder direkt einem E/ABst des Rech­ ners zuzuführen. Jedem Bausteine EBst und ABst ist ein Langtext LT zugeordnet, der dem Ratsuchenden verständlich ist. Fig. 5 shows an example of some basic features of a preferred technical, less complex concept, the function of the "self-learning" is excluded here for clarity. The concept is implemented in a special computer in which memory cells, or corresponding small software sections, take over the function of brain neurons. Instead of wiring, z. B. "pointer", ie address information, cf. Adr, which can be formed primarily by software, with the help of which reference is made from one cell to subsequent cells. There is a repertoire of numbered input and output modules, cf. EBstNr and ABstNr , which can also represent pure software modules and which partly input E , partly output A , partly both, cf. E / ABst , are assigned. Via a switch W , which may also be formed by a software section instead of pure hardware, it is possible to feed read output modules AB without influencing them directly from the outside back to an I / O of the computer. A long text LT is assigned to each module EBst and ABst , which the person seeking advice can understand.

Jedem solchen Baustein EBst, ABst und/oder E/ABst ist eine Spei­ cherzelle bzw. ein entsprechender Adreßraum zugeordnet, in wel­ chem die Adressen, vgl. Adr, der anzusteuernden Kontext-Speicher­ zellen, vgl. KoSZ bzw. entsprechende Adreßräume in einem großen Speicher KS, vgl. Fig. 1, angegeben sind. Den Bausteinen E/ABst ist eine Steuereinheit StKoS zugeordnet, welche die Ansteuerung der adressierten Kontext-Speicherzellen KoSZ vornimmt. Bei Auf­ ruf einer solchen Bausteinspeicherzelle, vgl. E/ABst, werden al­ so die betreffenden Kontext-Speicherzellen, vgl. Adr in E/ABst sowie KoSZ, z. B. gleichzeitig, oder der Reihe nach, angesteuert.Each such block EBst, ABst and / or E / ABst is assigned a memory cell or a corresponding address space, in which the addresses, cf. Adr , the context memory cells to be controlled, cf. KoSZ or corresponding address spaces in a large memory KS , cf. Fig. 1, are given. A control unit StKoS is assigned to the blocks E / ABst , which controls the addressed context memory cells KoSZ . When such a block memory cell is called, cf. E / ABst , al are the relevant context memory cells, cf. Adr in E / ABst and KoSZ , z. B. controlled simultaneously, or in turn.

Jede Kontext-Speicherzelle, vgl. KoSZ, enthält ein Feld, vgl. MA, in welchem Mehrfachaufrufe eingetragen werden können. Durch ih­ nen zugeordnete Adressen Adr ist angegeben, welche Funktionen Fkt anschließend abhängig von der Anzahl der Mehrfachaufrufe MA anzusteuern sind. Den Kontext-Speicherzellen KoSZ ist eine Steu­ ereinheit StABst zur Ansteuerung der Ausgabe-Bausteine ABst zu­ geordnet. Hierzu enthält jede Kontext-Speicherzelle KoSZ die Adressen ADr aller ihr zugewiesenen Ausgabe-Bausteine ABst, zu­ sammen mit der dem Baustein jeweils zugeordneten Eingangsnummer ENr, falls die betreffenden Ausgabe-Bausteine ABst mehrere ver­ schiedene Eingänge ENr = E 1 . . . En haben. Vor jeder aufgerufenen Kontext-Speicherzelle KoSZ aus werden sämtliche zugeordneten Ausgabe-Bausteine ABst gleichzeitig oder in Gruppen oder seriell nacheinander angesteuert und in noch zu beschreibender Weise be­ arbeitet. Abhängig von der Vorgeschichte, z. B. von der Anzahl der Mehrfachaufrufe MA, lassen sich die Adressen der anzusteu­ ernden Ausgabe-Bausteine ABst modifizieren, so daß entsprechend andere Ausgabe-Bausteine ABst erreicht werden.Each context memory cell, cf. KoSZ , contains a field, cf. MA in which multiple calls can be entered. Their assigned addresses Adr indicate which functions Fct are then to be controlled depending on the number of multiple calls MA . A control unit StABst for controlling the output modules ABst is assigned to the context memory cells KoSZ . For this purpose, each context memory cell KoSZ contains the addresses ADr of all output modules ABst assigned to it , together with the input number ENr assigned to the module if the relevant output modules ABst contain several different inputs ENr = E 1 . . . S have. Before each context memory cell KoSZ is called , all assigned output modules ABst are activated simultaneously or in groups or in series and are processed in a manner to be described. Depending on the previous history, e.g. B. from the number of multiple calls MA , the addresses of the output blocks ABst to be controlled can be modified so that other output blocks ABst can be achieved accordingly.

Die verschiedenen Eingänge E 1 . . . En der Ausgabe-Bausteine ABst können abhängig von der ansteuernden Kontext-Speicherzelle KoSZ mit unterschiedlichen Gewichten programmiert sein, vgl. GZ, also z. B. entsprechende Gewichtswerte GZ speichern. Bei jedem Eingang, der von einer aktiven Kontext-Speicherzelle KoSZ angesteuert wird, wird ein Aktivitätskennzeichen A′ gesetzt. Dieses Aktivi­ tätskennzeichen A′ repräsentiert die Speicherwirkung der Kontext- Speicherzellen KoSZ. Zusätzlich läßt sich - falls der oben be­ schriebene Effekt der Kurzzeitspeicherung mit einbezogen werden soll - je Eingang E 1 . . . En mit Hilfe eines Zählers in GZ eine "Zeitspur" legen, die bei der Bestimmung des resultierenden Ein­ gangsgewichtes GZ berücksichtigt wird. Anstelle der Weiterzäh­ lung aller solcher dezentral in GZ gespeicherten Zeitspuren kann im Prinzip auch eine einzige Zentrale ZentZSp gewisser­ maßen "zurück" gezählt werden. Bei der Auswertung der resultie­ renden Eingangsgewichte wird der jeweils abgefragte dezentrale Zählerstand in GZ mit dem Zählerstand der zentralen Zeitspur ZentZSp in Beziehung gesetzt. Im Prinzip können auch alle ge­ speicherten GZ-Zeitspurwerte von einem zentralen Zeitspur-Gene­ rator ZentZSp des Rechners automatisch in fixen Zeitabständen verkleinert werden, entsprechend der für die betreffende Zelle GZ gewünschten Restdauer des Kurzzeitgedächtnisses. Dieser Gene­ rator ZentZSp kann auch dazu dienen, um abhängig vom Zeitverlauf - vgl. "früher" und "später" in der unten beschriebenen Fig. 6 - unterschiedliche Kontext-Speicherzellen KoSZ anzusteuern.The various inputs E 1 . . . S of output devices distances can be programmed depending on the context which drives memory cell kosz with different weights, see. GZ , i.e. B. Save corresponding weight values GZ . For each input that is controlled by an active context memory cell KoSZ , an activity indicator A 'is set. This activity indicator A ' represents the memory effect of the context memory cells KoSZ . In addition - if the above-described effect of short-term storage is to be included - input E 1 . . . En apply a "time tracking" by means of a counter in GZ, the gear weight in the determination of the resulting A GZ is considered. Instead of counting all such time traces stored decentrally in GZ , a single central ZentZSp can in principle also be counted "back" to a certain extent. When evaluating the resulting input weights, the decentralized meter reading in GZ that is queried is related to the meter reading of the central time track ZentZSp . In principle, all stored GZ time track values can be automatically reduced by a central time track generator ZentZSp of the computer at fixed time intervals, in accordance with the remaining duration of the short-term memory desired for the cell GZ concerned. This generator ZentZSp can also serve, depending on the passage of time - cf. "earlier" and "later" in FIG. 6 described below - to control different context memory cells KoSZ .

In jedem Ausgabe-Baustein ABst bzw. in jeder entsprechenden Speicherzelle ABst bzw. in jedem entsprechenden Adreßraum muß ein Schwellwert Schw eingetragen werden, der jeweils durch (die Summe der) Eingangsgewichte, sobald diese durch Aktivitätskenn­ zeichen A′ aktiviert sind, überschritten werden muß, wenn der betreffende Baustein ABst in den noch zu beschreibenden ABst- Auswahlvorgang miteinbezogen werden soll. - Weiterhin ist mit einer mitgespeicherten Ausgabe-Baustein-Nummer ABstNr ein zum betreffenden Ausgabe-Baustein ABst gehörender spezieller Lang­ text LT erreichbar.A threshold value Schw must be entered in each output module ABst or in each corresponding memory cell ABst or in each corresponding address space, which must be exceeded by (the sum of the) input weights as soon as they are activated by activity indicators A ′ , if the relevant block ABst is to be included in the ABst selection process to be described later . - Furthermore, a special long text LT belonging to the relevant output module ABst can be reached with an output module number ABstNr that is also stored.

Im betrachteten Zyklus mögen von den (durch den Eingabe- und/oder Ausgabe-Baustein) aufgerufenen Kontext-Speicherzellen KoSZ alle ihnen zugeordneten Eingänge E 1 . . . En der Ausgabe-Bausteine ABst bereits aktiviert worden sein. Jetzt kann der Auswahlprozeß zur Bestimmung eines einzigen anzuregenden Ausgabe-Bausteins ABst beginnen. Hierzu werden alle betreffenden Ausgabe-Bausteine ABst, z. B. der Reihe nach, ausgelesen, vgl. Maximum-Suche MaxS. In je­ dem Ausgabe-Baustein ABst werden die resultierenden aktiven, ge­ speicherten Eingangsgewichte GZ aufsummiert, im Maximum-Register MaxReg als Wert lastMax gespeichert, falls dort bisher ein klei­ nerer Wert lastMax gespeichert war, und mit der im betreffenden Ausgabe-Baustein ABst gespeicherten Schwelle Schw verglichen:In the cycle under consideration, all of the inputs E 1 assigned to them by the context memory cells KoSZ (called up by the input and / or output module) may. . . Already have been activated s output devices Dist. Now the selection process for determining a single output module ABst to be excited can begin. For this purpose, all relevant output modules ABst , z. B. sequentially read out, cf. Maximum search MaxS . The resulting active, stored input weights GZ are summed up in each output module ABst , stored in the maximum register MaxReg as the value lastMax , if a lower value lastMax was previously stored there, and with the threshold stored in the relevant output module ABst Schw compared:

Wird die Schwelle Schw überschritten, so kommt der betreffende Ausgabe-Baustein ABst in die engere Wahl und wird im Maximum-Re­ gister MaxReg als Kandidat ABstAdr eingetragen. Ist die Zahl der aktiven Eingangsgewichte GZ aber kleiner als die im Maximum-Re­ gister MaxReg vermerkte Zahl lastMax, so kann der betreffende Ausgabe-Baustein ABst nicht ausgewählt und daher nicht als Kan­ didat ABstAdr eingetragen werden. Übertreffen aber zu einem spä­ teren Zeitpunkt die Eingangsgewichte GZ die im Maximum-Register MaxReg gespeicherte Zahl, so wird der betreffende Ausgabe-Bau­ stein ABst neuer Kandidat für die Auswahl, indem seine Adresse und das aufsummierte Gewicht GZ der betreffenden Eingänge E 1 . . . En auf Kosten des vorigen Kandidaten im Maximum-Register MaxReg eingetragen wird, vgl. ABstAdr. Ist das aufsummierte Gewicht GZ aller Eingänge E 1 . . . En eines Ausgabe-Bausteins ABst aber gleich der Zahl lastMax eines anderen Kandidaten ABstAdr im Maximum-Re­ gister MaxReg, so kann eine beliebige Strategie gewählt werden, z. B. "Überschreiben" der Adresse des bisherigen Kandidaten ABst- Adr, oder "vergessen".If the threshold Schw is exceeded, the relevant output module ABst is shortlisted and is entered in the maximum register MaxReg as a candidate ABstAdr . If the number of active input weights GZ is smaller than the number lastMax noted in the MaxReg maximum register , the relevant output module ABst cannot be selected and therefore cannot be entered as a candidate ABstAdr . If, however, the input weights GZ exceed the number stored in the maximum register MaxReg at a later point in time, the relevant output module ABst becomes a new candidate for the selection by its address and the total weight GZ of the relevant inputs E 1 . . . En is entered in the MaxReg maximum register at the expense of the previous candidate, cf. ABstAdr . Is the total weight GZ of all inputs E 1 . . . S an output block distances but equal to the number LAST MAX of another candidate ABstAdr the maximum Re gister MaxReg so can any strategy chosen for. B. "Overwrite" the address of the previous candidate ABst-Adr , or "forget".

Wenn alle betreffenden Ausgabe-Bausteine ABst bei der Maximum­ suche MaxS durchgeprüft sind, kann ein Such-Ende-Baustein SEnd das Transferglied S steuern, um mittels des im Maximum-Register MaxReg gespeicherten Kandidaten den betreffenden Ausgabe-Bau­ stein ABst mittels seiner Nummer ABstNr anzuregen, am Ausgang A einen Langtext LT auszugeben und/oder direkt wieder über die Wei­ che W zu einem weiteren Zyklus auf einen E/A-Baustein E/ABst einzuwirken.When all the relevant output modules ABst are checked at the maximum search MaxS , a search end module SEnd can control the transfer element S in order to use the candidate stored in the maximum register MaxReg to stimulate the relevant output module ABst by means of its number ABstNr , to output a long text LT at output A and / or to act directly on an I / O module I / ABst via the switch W for another cycle.

Um den Aufwand zur Herstellung eines solchen Rechners abzu­ schätzen, hier ein grob geschätztes, einfaches Zahlenbeispiel:To reduce the effort required to manufacture such a computer estimate, here is a roughly estimated, simple numerical example:

Es gebe m = 104 Ausgabe-Baustein ABst. Jeder solcher Baustein ABst ist also 14 Bit zu adressieren. Ferner gebe es n = 104 Kontext-Speicherzellen KoSZ mit gleichem Adressieraufwand. Von jedem Baustein E/ABst, der die Ansteuerung des Kontextspeichers KS steuert, seien maximal p = 102 Kontext-Speicherzellen KoSZ ansteuerbar. Damit benötigt jeder solcher Bausteine E/ABst 1400 bit. Die Anzahl der E/ABst ist z. B. gleich der Anzahl der Aus­ gabe-Bausteine ABst, also 104. Es werden für die Bausteine E/AB st dann 1,4 · 107 Bit gebraucht.There are m = 10 4 output module ABst. Each such block ABst has to be addressed 14 bits. There are also n = 10 4 context memory cells KoSZ with the same addressing effort . Of each block I / ABST that controls the driving of the context memory KS, a maximum of p = 2 10 Contextual memory cells kosz be controlled. Each of these blocks therefore requires E / ABst 1400 bits. The number of E / ABst is e.g. B. is equal to the number of output blocks ABst , so 10 4th Then 1.4 · 10 7 bits are needed for the blocks E / AB st .

Jede Kontext-Speicherzelle KoSZ möge maximal 102 Ausgabe-Bau­ steine ABst erreichen können. Jeder Ausgabe-Baustein ABst habe selbst maximal 102 Eingänge E 1 . . . En; zur Adressierung eines dieser Eingänge sind 7 Bit nötig. Adresse und Eingang eines Aus­ gabe-Bausteins ABst erfordern also 14 Bit + 7 Bit =21 Bit. Für die 102 zu adressierenden Ausgabe-Bausteine ABst werden je Kon­ text-Speicherzelle KoSZ also 2100 Bit gebraucht, für 104 Kontext- Speicherzellen KoSZ sind dies also etwa 2,1 · 107 Bit (der Bit­ bedarf für Mehrfachaufruf ist hierbei vernachlässigbar). Each context memory cell KoSZ may be able to reach a maximum of 10 2 output blocks ABst . Each output module ABst itself has a maximum of 10 2 inputs E 1 . . . En ; 7 bits are required to address one of these inputs. The address and input of an output block ABst therefore require 14 bits + 7 bits = 21 bits. For the 10 2 output blocks ABst to be addressed , 2100 bits are needed per context memory cell KoSZ , for 10 4 context memory cells KoSZ this is about 2.1 · 10 7 bits (the bit required for multiple calls is negligible) .

Der Bitbedarf jedes Ausgabe-Bausteins ABst entspricht im wesent­ lichen den Speicherzellen, die den 102 Eingängen E 1 . . . En zuge­ ordnet sind. Dies sind insgesamt z. B. 1500 Bit je Ausgabe-Bau­ stein ABst. Hinzu kommen z. B. maximal 500 Bit für den Langtext LT je Ausgabe-Baustein ABst; zusammen also ca. 2000 Bit. Die Summe über alle Ausgabe-Bausteine ABst beträgt demnach etwa 2 · 107 Bit.The bit requirement of each output module ABst essentially corresponds to the memory cells which correspond to the 10 2 inputs E 1 . . . S been classified are. These are z. B. 1500 bits per output block stone In addition come z. B. A maximum of 500 bits for the long text LT per output block ABst ; together about 2000 bits. The total of all output modules ABst is therefore approximately 2 · 10 7 bits.

Insgesamt handelt es sich bei diesem Beispiel also um einen Spei­ cheraufwand von weniger als 60 Mbit. Dies ist im Prinzip bereits mit weniger als 15 der künftigen 4 Mbit-Chips zu bewältigen.Overall, this example is a Spei less than 60 Mbit. In principle, this is already with less than 15 of the future 4 Mbit chips.

Zum Fassen eines Gedankens sind im allgemeinen die meisten Schrit­ te für die Aktivierung der Eingänge E 1 . . . En der Ausgabe-Baustei­ ne ABst notwendig. In diesem Beispiel werden von einer einzigen Kontext-Speicherzelle KoSZ 102 Verarbeitungsschritte zur Akti­ vierung von Eingängen E 1 . . . En der Ausgabe-Bausteine ABst veran­ laßt. Mit maximal 102 angesteuerten Kontext-Speicherzellen KoSZ beträgt die Anzahl der Verarbeitungsschritte hier lediglich 104. Für die Maximum-Suche MaxS werden alle 104 Ausgabe-Bausteine AB st abgefragt. Im diskutierten Fall sind also im wesentlichen (unter Vernachlässigung geringerer Beträge) 20 000 Verarbeitungs­ schritte durchzuführen. Beträgt die Verarbeitungszeit 1 µs je Schritt, dann erfolgt die Auswahl eines Gedankens in etwa 20 ms.In general, most of the steps for activating the inputs E 1 are to take a thought. . . S the output Baustei ne distances necessary. In this example, a single context memory cell KoSZ 10 2 processing steps for activating inputs E 1 . . . Let veran s output devices Dist. With a maximum of 10 2 controlled context memory cells KoSZ , the number of processing steps here is only 10 4 . All 10 4 output blocks AB st are queried for the maximum search MaxS . In the case under discussion, essentially 20,000 processing steps have to be carried out (neglecting smaller amounts). If the processing time is 1 µs per step, a thought is selected in about 20 ms.

Natürlich kann man auch von völlig anderen Vorgaben ausgehen, vor allem abhängig von gesammelten Erfahrungen, welche Anzahlen für "Weltwissenkomponenten" in praktischen Fällen je nach Sach­ gebiet wirklich relevant sind. Das kann allerdings mitunter auch zu wesentlich größeren Anzahlen als hier angenommen führen.Of course, you can also start from completely different guidelines, especially depending on the experience gained, which numbers for "world knowledge components" in practical cases depending on the subject area are really relevant. However, this can sometimes also happen lead to significantly larger numbers than assumed here.

Mit welchen Gewichten GZ welche Eingänge E 1 . . . En zu belegen sind, ist z. B. ebenfalls eine Frage der Erfahrung. Sicherlich wird man zunächst mit aufwandsarmen Lösungen beginnen, die z. B. sogar von einheitlichen Eingangsgewichten ausgehen und die zu­ nächst auch auf die Berücksichtigung von Zeitspuren verzichten. With which weights GZ which inputs E 1 . . . En are to be documented, for. B. also a question of experience. Certainly one will start with low-cost solutions, which e.g. B. even start from uniform input weights and at first also do not consider time traces.

Anschließend kann man diese Einschränkungen fallenlassen und nach und nach den Aufwand jeweils nach dem Experten-Sachgebiet, für welches der Rechner eingesetzt werden soll, optimieren.Then you can drop these restrictions and gradually the effort according to the expert subject area, optimize for which the computer is to be used.

Zur Erhöhung der Rechengeschwindigkeit kann der erfindungsgemäße Rechner, wie es auch für andere Expertensystem-Rechner vorgese­ hen ist, mit vielen selbständigen Prozessoren aufgebaut werden, die verstreut in vielen Funktionseinheiten des Rechners ange­ bracht sind und die zeitlich weitgehend unabhängig voneinander und weitgehend gleichzeitig, statt seriell nach dem Von-Neumann- Prinzip arbeiten.The inventive method can be used to increase the computing speed Computer, as it is also provided for other expert system computers hen is built with many independent processors, scattered across many functional units of the computer are brought and which are largely independent of one another in terms of time and largely simultaneously, instead of in series according to the Von Neumann Working principle.

Die Erfindung eignet sich ganz besonders für Expertensystem-Rech­ ner für nichtmathematische Wissensdomänen, wobei das zur Verfü­ gung gestellte Wissen auch in assoziativen Speichern gespeichert sein kann. Dementsprechend sind bei der Erfindung die Adressen im Regelfall durch speicherinhaltorientierte Zeiger gebildet, welche jeweils auf einen bestimmten Faktenkomplex/Gedankenkom­ plex hinweisen.The invention is particularly suitable for expert system calculations ner for non-mathematical domains of knowledge, whereby the available knowledge also stored in associative memories can be. Accordingly, the addresses are in the invention as a rule formed by pointers oriented towards memory, which each refer to a certain complex of facts / ideas point out plex.

Expertensystem-Rechner für rein mathematische Wissensdomänen wird man im allgemeinen mit Hilfe von arithmetisch-logischen Einheiten aufbauen, welche seriell Befehle verarbeiten und damit nach Von-Neumann-Prinzipien aufgebaut und betrieben werden. An sich ist es jedoch möglich, auch einen Mathematik-Expertensy­ stem-Rechner erfindungsgemäß aufzubauen und zu betreiben. Fig. 6 zeigt ein einfaches Beispiel für den Betrieb eines solchen Rech­ ners, und zwar beschreibt dieses Beispiel ausschnittsweise den Potenzrechnungs-Betrieb. In der linken Spalte ist gezeigt, daß am Rechnereingang, z. B. bei einem E/ABst-Baustein, vier ver­ schiedene Begriffe eingegeben werden, welche Assoziationen aus­ lösen: Nämlich die Begriffe "2", "3", "hoch" sowie "=". Das in Fig. 6 gezeigte Beispiel ist besonders insofern interessant, als es hier auf die zeitliche Folge dieser eingegebenen Begriffe an­ kommt. "23" ergibt nämlich ein anderes Resultat als "32". In den Kontext-Speicherzellen KoSZ wird nicht nur registriert, daß die Begriffe "2" und "3" in den Rechnereingang E/ABst eingegeben wurden, sondern es wird auch die zeitliche Folge dieser Eingaben mit Hilfe des zentralen Zeitspur-Generators ZentZSp registriert. In den Kontext-Speicherzellen KoSZ wird nämlich registriert, ob zuerst der Begriff "2" oder der Begriff "3" eingegeben wurde, vergleiche "früher" und "später", oder ob die umgekehrte Reihen­ folge eingegeben wurde. Der Kontext-Speicher steuert schließlich die Ausgabe-Bausteine ABst "23" oder "32" entsprechend der ein­ gegebenen Reihenfolge der Begriffe "2" und "3" an, so daß als Langtext LT am Rechnerausgang A schließlich das Ergebnis "8" oder "9" ausgegeben wird. Der Generator ZentZSp kann hierbei dazu dienen, um abhängig von der zeitlichen Folge der Eingaben, vgl. "früher" und "später", unterschiedliche Kontext-Speicher­ zellen KoSZ anzusteuern. Der Ausgabe-Baustein ABst wird hierbei überdies erst dann endgültig angesteuert, wenn als Eingabe-Be­ griff zusätzlich der Begriff "=" zur Signalisierung des Endes der Eingabe eingegeben wurde, wobei dieser Begriff nun die Maxi­ mumsuche MaxS auslöst, vergleiche auch Fig. 5. S bezeichnet in Fig. 6 jene Schwelle, die überschritten werden mußte, damit der betreffende Ausgabe-Baustein ABst aufgerufen wurde.Expert system computers for purely mathematical domains of knowledge will generally be set up with the aid of arithmetic-logic units which process commands in series and are thus set up and operated according to Von Neumann principles. In itself, however, it is also possible to set up and operate a mathematics expert system computer according to the invention. Fig. 6 shows a simple example of the operation of such a calculator, and this example describes sections of the power calculation operation. The left column shows that at the computer input, for. B. with an E / ABst module, four different terms are entered which trigger associations: namely the terms "2", "3", "high" and "=". The example shown in FIG. 6 is particularly interesting in that it depends on the chronological order of these entered terms. This is because "2 3 " gives a different result than "3 2 ". The context memory cells KoSZ not only register that the terms "2" and "3" have been entered in the computer input E / ABst , but also the chronological sequence of these entries is registered with the aid of the central time track generator ZentZSp . Namely , it is registered in the context memory cells KoSZ whether the term "2" or the term "3" was entered first, compare "earlier" and "later", or whether the reverse order was entered. The context memory finally controls the output modules ABst "2 3 " or "3 2 " in accordance with the given order of the terms "2" and "3", so that the result "8" as long text LT at computer output A or "9" is output. The generator ZentZSp can be used to, depending on the time sequence of the inputs, cf. "earlier" and "later" to control different context memory cells KoSZ . The output module ABst is moreover only finally activated when the term "=" has additionally been entered as an input term for signaling the end of the input, this term now triggering the maximum search MaxS , see also FIG. 5. In FIG. 6, S denotes the threshold that had to be exceeded in order for the relevant output module ABst to be called.

Claims (5)

1. Als Expertensystem dienender Rechner, dadurch gekennzeichnet, daß er deutlich abweichend von Von-Neumann-Prinzipien aufgebaut und betrieben ist, indem er vor allem rein speicherplatzadres­ siert betriebene Speicher, rein serielle Abarbeitungen von Pro­ grammschritten sowie die Verwendung von arithmetisch-logischen Einheiten und von speicherplatzorientierten Adressen ersetzt durch assoziativ betriebene Speicher, durch parallele Bearbei­ tungen von Gedankenkombinationen und durch speicherinhaltsorien­ tierte Adressen/Zeiger,
daß er speziellen Gedankenkombinationen/Datenblöcken/Fakten/ Anregungen entsprechende Eingabe-Bausteine (EBst) mit assozia­ tiven Speichereinheiten (EBst) sowie Ausgabe-Bausteine (ABst) mit assoziativen Speichereinheiten (ABst) enthält, zwischen denen ein Verknüpfungsteil/Kontext-Speicher (KS) mit assoziati­ ven Speichereinheiten (KS) eingefügt ist, und
daß der Kontext-Speicher (KS) multistabil in dem Sinne steuer­ bar ist, daß er, je nach Gewichtung der einzelnen, von den Eingabe-Bausteinen (EBst) und/oder von seinen einzelnen akti­ vierten Kontext-Speicherzellen (KoSZ) ausgehenden Anregungen, ein Muster von Ausgangssignalen an seinen Ausgängen abgibt, welches einzelne der Ausgangs-Bausteine (ABst), abhängig von früheren, auf die Eingabe (E) wirkenden Prämissen, steuert.
1. As an expert system serving computer, characterized in that it is constructed and operated in a significantly different manner from Von Neumann principles, in that it primarily operates purely memory-addressed memory, purely serial processing of program steps and the use of arithmetic-logic units and of memory location-oriented addresses replaced by associatively operated memory, by parallel processing of combinations of ideas and by memory content-oriented addresses / pointers,
that it contains special combinations of ideas / data blocks / facts / suggestions corresponding input modules (EBst) with associative memory units (EBst) and output modules (ABst) with associative memory units (ABst) , between which a link part / context memory (KS) with associative storage units (KS) is inserted, and
that the context memory (KS) is multistable in the sense that it can, depending on the weighting of the individual, emanating from the input modules (EBst) and / or from its individual activated context memory cells (KoSZ) , emits a pattern of output signals at its outputs, which controls individual ones of the output modules (ABst) , depending on previous premises acting on the input (E) .
2. Rechner nach Patentanspruch 1, dadurch gekennzeichnet, daß die Gewichtung des Einflusses eines Eingabe-Bausteines (EBst) auf den Kontext-Speicher (KS) abhängig ist von der Anzahl der von diesem Eingabe-Baustein (EBst) pro Zeiteinheit in der letzten Zeit auf den Kontext-Speicher bzw. auf Ausgabe-Bausteine (ABst) ausgehenden Anregungen. 2. Computer according to claim 1, characterized in that the weighting of the influence of an input block (EBst) on the context memory (KS) is dependent on the number of this input block (EBst) per unit of time in the last time suggestions based on the context memory or on output modules (ABst) . 3. Rechner nach Patentanspruch 1 oder 2, dadurch gekennzeichnet, daß die Gewichtung des Einflusses des Kontext-Speichers (KS) auf einen Ausgabe-Baustein (ABst) abhängig ist von der Anzahl der auf diesen Ausgabe-Baustein (ABst) pro Zeiteinheit in der letzten Zeit wirkenden Anregungen.3. Computer according to claim 1 or 2, characterized in that the weighting of the influence of the context memory (KS) on an output block (ABst) is dependent on the number of this output block (ABst) per unit time in the recent acting suggestions. 4. Rechner nach einem der vorhergehenden Patentansprüche, beson­ ders nach Patentanspruch 3, dadurch gekennzeichnet, daß ein watch-dog-Zeitglied angebracht ist, welches überprüft, ob eine nach einer bestimmten Ausgabe (A) eines Ausgabe-Bau­ steines (ABst) erwartete Reaktion, also ob eine dieser Reaktion entsprechende Eingabe (E), in einer bestimmten Zeitspanne nach der bestimmten Ausgabe (A) eintritt oder ausbleibt,
daß, bei nicht erwünschter bzw. falscher Reaktion des Ratsu­ chenden auf die bestimmte Ausgabe (A), eine neue, andere Ausgabe (A) erfolgt und/oder die Gewichtung von Eingabe-Bausteinen (EBst) und/oder die Gewichtung von Ausgabe-Bausteinen (ABst) so geändert wird, daß die bestimmte Ausgabe (A) in Zukunft nur mit kleinerer Wahrscheinlichkeit als bisher auftreten kann, und
daß, bei erwarteter bzw. richtiger Reaktion des Ratsuchenden auf die bestimmte Ausgabe (A), unter denselben Prämissen die­ selbe Ausgabe (A) erfolgt und/oder die Gewichtung von Ausgabe- Bausteinen (ABst) so geändert wird, daß die bestimmte Ausgabe (A) in Zukunft mit größerer Wahrscheinlichkeit als bisher auf­ treten kann.
4. Computer according to one of the preceding claims, special according to claim 3, characterized in that a watch-dog timer is attached, which checks whether an expected after a certain edition (A) of an output building block (ABst) response , i.e. whether an input (E) corresponding to this reaction occurs or does not occur within a certain period of time after the specific output (A) ,
that, in the event of an undesired or incorrect reaction by the Ratsu chender to the particular output (A) , a new, different output (A) takes place and / or the weighting of input modules (EBst) and / or the weighting of output modules (ABst) is changed in such a way that the specific edition (A) can only occur in the future with less probability than before, and
that, if the person seeking advice responds correctly to the particular issue (A) , the same issue (A) is carried out under the same premises and / or the weighting of issue modules (ABst) is changed so that the particular issue (A ) is more likely to occur in the future than before.
5. Rechner nach einem der vorstehenden Patentansprüche, dadurch gekennzeichnet,
daß seine Ausgabe-Bausteine (ABst) nacheinander Langtext-Aus­ gaben (LT) bzw. Pakete (ABst) von Langtext-Ausgaben (LT) zur An­ regung eines Dialoges mit dem Benutzer ausgibt und
daß er im Kontext-Speicher (KS) auch eingegebene Fakten (b 1 . . . x 1) speichert, die er erst später verwendet, sobald sonstige, an sich zuvor einzugebende Prämissen eingegeben wurden.
5. Computer according to one of the preceding claims, characterized in
that its output modules (ABst) successively outputs long text output (LT) or packages (ABst) of long text output (LT) to stimulate a dialogue with the user and
that he also stores entered facts (b 1 ... x 1 ) in the context memory (KS) , which he only uses later as soon as other premises to be entered previously have been entered.
DE19873720195 1987-06-16 1987-06-16 Computer for use as an expert system Withdrawn DE3720195A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19873720195 DE3720195A1 (en) 1987-06-16 1987-06-16 Computer for use as an expert system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19873720195 DE3720195A1 (en) 1987-06-16 1987-06-16 Computer for use as an expert system

Publications (1)

Publication Number Publication Date
DE3720195A1 true DE3720195A1 (en) 1989-01-05

Family

ID=6329851

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19873720195 Withdrawn DE3720195A1 (en) 1987-06-16 1987-06-16 Computer for use as an expert system

Country Status (1)

Country Link
DE (1) DE3720195A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991006908A1 (en) * 1989-10-30 1991-05-16 Universidade De São Paulo - Usp Circuitry and microprogramming of a non-von neumann computer for acquisition of an automatic programming (software)
DE4108310A1 (en) * 1990-03-14 1991-09-26 Hitachi Ltd Knowledge base processing and expert system - stores indices representing certainty grade of casual relationship between occurrence and others relevant to it
EP2674880A1 (en) * 2012-06-12 2013-12-18 The Boeing Company Creating optimal comparison criterion within associative memories

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2903413A1 (en) * 1979-01-30 1980-08-07 Paul Stefan Dr Puetter Electrical circuit with programmed learning characteristics - contains interconnected elements whose stimulation probability increases with each energising
GB2098772A (en) * 1981-05-07 1982-11-24 Fish Alan Newton Improvements in learning machines and components thereof
DE3600762A1 (en) * 1985-02-07 1986-08-07 N.V. Philips' Gloeilampenfabrieken, Eindhoven ADAPTABLE APPROACHING SYSTEM

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2903413A1 (en) * 1979-01-30 1980-08-07 Paul Stefan Dr Puetter Electrical circuit with programmed learning characteristics - contains interconnected elements whose stimulation probability increases with each energising
GB2098772A (en) * 1981-05-07 1982-11-24 Fish Alan Newton Improvements in learning machines and components thereof
DE3600762A1 (en) * 1985-02-07 1986-08-07 N.V. Philips' Gloeilampenfabrieken, Eindhoven ADAPTABLE APPROACHING SYSTEM

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DE-Z.: HOLTZ, Klaus, LANGHELD, Erwin: Der selbstlernende und programmierfreie Assoziationscomputer. In: ELEKTRONIK 1978, Heft 14, S. 39-46, (1. Teil), Heft 15, S. 53-62 (2. Teil) *
DE-Z.: WOLF, Gerhard: Assoziativspeicher- Prinzipien und Möglichkeiten der Realisierung. In: data report 11 (1976) Heft 2, S. 29-34 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991006908A1 (en) * 1989-10-30 1991-05-16 Universidade De São Paulo - Usp Circuitry and microprogramming of a non-von neumann computer for acquisition of an automatic programming (software)
DE4108310A1 (en) * 1990-03-14 1991-09-26 Hitachi Ltd Knowledge base processing and expert system - stores indices representing certainty grade of casual relationship between occurrence and others relevant to it
US5493729A (en) * 1990-03-14 1996-02-20 Hitachi, Ltd. Knowledge data base processing system and expert system
DE4108310C2 (en) * 1990-03-14 1998-10-22 Hitachi Ltd Processing system for a knowledge base in an expert system
EP2674880A1 (en) * 2012-06-12 2013-12-18 The Boeing Company Creating optimal comparison criterion within associative memories
US8914604B2 (en) 2012-06-12 2014-12-16 The Boeing Company Creating optimal comparison criterion within associative memories

Similar Documents

Publication Publication Date Title
Levine A cognitive theory of learning: Research on hypothesis testing
Sperry Mind, brain, and humanist values
Sutton et al. Toward a modern theory of adaptive networks: expectation and prediction.
Jones Bounded rationality and public policy: Herbert A. Simon and the decisional foundation of collective choice
EP2108139B1 (en) Method for the computer-aided control and/or regulation of a technical system, particularly a gas turbine
DE102008020379A1 (en) Method for computer-aided control and / or regulation of a technical system
DE60125536T2 (en) ARRANGEMENT FOR GENERATING ELEMENT SEQUENCES
WO2020182541A1 (en) Method for operating a robot in a multi-agent system, robot and multi-agent system
Hamid et al. Reinforcement learning and attractor neural network models of associative learning
EP1690219A2 (en) Inference machine
EP4248284A1 (en) Method and system for processing input values
DE3720195A1 (en) Computer for use as an expert system
DE10139682B4 (en) Method for generating neural networks
Young et al. Theories of learning
DE3609925C2 (en)
WO2006005669A2 (en) System for extracting and/or evaluating information
Niels Attributionen in der Mensch-Computer-Interaktion
WO2006005665A2 (en) Method for reacting to changes in context by means of a neural network, and neural network used for reacting to changes in context
DE102020213830A1 (en) Method and system for providing diagnostic information
Boden An evaluation of computational modeling in cognitive science.
Hsu et al. Context analysis by the gamma neural network
DE1234062B (en) Learnable arrangement
WO2020178232A1 (en) Autonomous self-learning system
WO2020178248A1 (en) Autonomous self-learning system
DE102021211115A1 (en) Method, device and system for interacting with third parties

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8130 Withdrawal