DE60204292T2 - Automatisches überwachungsystem für einen patient und seinen krankenpfleger - Google Patents

Automatisches überwachungsystem für einen patient und seinen krankenpfleger Download PDF

Info

Publication number
DE60204292T2
DE60204292T2 DE60204292T DE60204292T DE60204292T2 DE 60204292 T2 DE60204292 T2 DE 60204292T2 DE 60204292 T DE60204292 T DE 60204292T DE 60204292 T DE60204292 T DE 60204292T DE 60204292 T2 DE60204292 T2 DE 60204292T2
Authority
DE
Germany
Prior art keywords
person
signal
alarm
detection
programmed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60204292T
Other languages
English (en)
Other versions
DE60204292D1 (de
Inventor
Srinivas Gutta
Eric Cohen-Solal
Trajkovic Miroslav
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of DE60204292D1 publication Critical patent/DE60204292D1/de
Publication of DE60204292T2 publication Critical patent/DE60204292T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/0423Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting deviation from an expected pattern of behaviour or schedule
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0453Sensor means for detecting worn on the body to detect health condition by physiological monitoring, e.g. electrocardiogram, temperature, breathing
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/06Children, e.g. for attention deficit diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/167Personality evaluation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device

Description

  • Die vorliegende Erfindung bezieht sich auf Anordnungen, die ein Alarmsignal erzeugen, wenn Umstände, die einen Kranken, einen Säugling oder ein Kind, oder eine andere Person oder einen Wärter derselben dies rechtfertigen.
  • Fernsicherheitsüberwachungssysteme, bei denen eine Videokamera ein einen bestimmten Gegenstand oder ein bestimmtes Gebiet eingestellt ist und von einem ausgebildeten Beobachter überwacht wird, sind an sich bekannt. Auch Säuglings- und Kindermonitoren, die Audiosignale zu einem zu einem tragbaren Empfänger übertragen, sind auf dem Markt erhältlich. Diese Anordnungen erfordern aber ständige Aufmerksamkeit um Schutz für das betreffende Subjekt oder Gebiet, wie einen Säugling oder ein Kind, bieten zu können.
  • Automatisierte Säuglings- oder Kindermonitoren wurden bereits vorgeschlagen, die beispielsweise eine Schlaflage eines Kindes überwachen um plötzlichen Kindstod (SIDS) zu vermeiden. Ein Annäherung, vorgeschlagen in dem US Patent Nr. 5.864.291, benutzt einen Atemsensorgurt um den Oberkörper eines Kindes um das Atmen zu detektieren. Ein anderes Patent (US Patent Nr. 5.638.824) schlägt vor, einen Ultraschallsensor zu verwenden und das US Patent Nr. 5.914.660 beschreibt Lagensensoren zu demselben Zweck. Die Automatisierung in diesen Typen von Monitoren schafft aber nur einen geringen Gebrauch für Säuglinge, die aus anderen Gründen bekümmert sind als einen Atmungsfehler oder Schlafen in einer erwarteten Lage. Auch kann das Alarmsignal falsche Zeichen geben und hilft nur wenig beim Diagnostisieren des Grundes der Qual.
  • Ein überwachter physikalischer und emotioneller Zustand einer Person kann durch einen Computer für medizinische diagnostische Zwecke bestimmt werden. So beschreibt beispielsweise das US Patent Nr. 5.617.855, durch Bezeichnung als hierin aufgenommen betrachtet, ein System, das Kennzeichen des Gesichtes und der Stimme zusammen mit dem Elektroenzephalogramm und anderen diagnostischen Daten klassifiziert um eine Diagnose stellen zu können. Die Anordnung ist auf den Bereich der Psychiatrie und Neurologie abgezielt. Diese und andere derartige Anordnungen sind aber nicht gemeint zum Überwachen von Personen in ihrer normalen Umgebung.
  • In noch einem anderen Anwendungsbereich detektieren Maschinen automatisch das Vorhandensein eines Wohnungsinhabers oder spezifische Merkmale des Inhabers zwecks Maschinenautorisierung und Authentifizierung oder Bequemlichkeit. Dazu benutzen einige bekannte Systeme biometrisches Abtasten, Annäherungsdetektoren, Funkfrequenzidentifikationsanhänger oder andere Anordnungen.
  • EP 0716402B1 beschreibt ein Verfahren zum Detektieren der Anzahl Menschen, die in einen Zug einsteigen oder in einen anderen Raum eintreten, und zwar unter Verwendung von IR-Sensoren und Fuzzy-Folgerungstechniken. Wenn die Anzahl Menschen außerhalb gewünschter Grenzen oder außer Gleichgewicht ist, kann das System dazu Anweisungen erzeugen, die zu Anordnungen gekoppelt werden können um die Umstände zu korrigieren.
  • UK 2027312A beschreibt ein Verfahren zum Detektieren der Bewegung von Fischen unter Verwendung von IR-Kameras, die ein Standard-Videosignal erzeugen.
  • US 452443 beschreibt ein System, wobei ein Benutzer zu bestimmten Intervallen einen Schalter aktivieren soll. Sollte eine Betätigung ausbleiben, so führt dies zu der Erzeugung eines Inaktivitätsalarm.
  • US 5905436 beschreibt ein System, wobei das Ausbleiben mehrerer Sensoren in einem Haus, die getriggert werden sollen, zu der Erzeugung eines Signals zu einer zentralen Überwachungsstation führt, die dies angibt. Die Beschreibung bezieht sich auf die Überwachung einer älteren Person, die in diesem Haus lebt.
  • UK 2179186A beschreibt ein System, wobei, wenn zu einem bestimmten Zeitpunkt keine Bewegung detektiert wird, ein Alarm ausgelöst wird. Es wird eine Warnung gegeben, so dass der Benutzer den Schalter Rückstellen kann.
  • US 6002994 beschreibt ein System. Wobei Sender, die an strategischen Stellen in einem Haus aufgestellt sind, ausgelöst werden wenn eine Person an dieser Stelle anwesend ist oder einen Sensor, der den Sender auslöst. Das System benutzt auch andere Eingänge, die an Anordnungen und Geräte angehängt sind, von denen erwartet wird, dass der Benutzer sie verwendet. Das System ist trainiert normale Verwendungsmuster zu erkennen. Die Sender übertragen ein Signal zu einem zentralen Monitor, wenn das normale Muster nicht befolgt wird.
  • In dieser Hinsicht können physiologische Messungen den Blutdruck des Benutzers, den Herzschlag, die Körpertemperatur, das Körpergewicht und den Blutzuckerspiegel umfassen. Nicht-physiologische Messungen können Raumtemperatur, Ammoniak aus verschüttetem Urin, Methan aus verdorbenen Lebensmitteln, das Vorhandensein von Rauch, die Frequenz des Verbrauchs elektrischer Energie, die Frequenz des Verbrauchs von Wasser, die Temperatur des Wassers aus dem Hahn, die Bewegungen des Benutzers innerhalb der selektierten Umgebung, wie durch Bewegungssensoren angegeben, und die Verwendung von Geräten einschließlich Klo, Telefon, Herd, Mikrowellenherd, Toaster, Backofen, Kühlschrank, Gefrierer, Spülmaschine, Bad, Dusche, Müllbeseitingsmittel, Waschmaschine, Wäschetrockner, Briefkasten, Tür und Fahrzeug.
  • Maschinenidentifikation von Gesichtern ist eine Technologie, die gut entwickelt ist. In GB 234945A für ein System zum Fotografieren oder Erkennen eines Gesichtes identifiziert ein Controller bewegende Gesichter in einer Szene und verfolgt sie um Bilder einzufangen, und zwar genügend um das Gesicht oder bestimmte Merkmale desselben zu identifizieren. So könnte beispielsweise das System ein Alarm auslösen bei der Erkennung einer heruntergezogenen Kappe oder einer Gesichtsmaske in einem Sicherheitssystem eines Juweliergeschäftes.
  • Nach wie vor gibt es ein Bedürfnis danach, dass ein System, das Personen überwacht, die beobachtet werden sollen, robuster ist, das imstande ist auf subtilere Elemente zu reagieren und das den Beobachtern mehr informative Information erteilt.
  • Kurz gesagt überwacht ein Alarmsystem Umstände einer Person, die beobachtet werden muss, andere, die diese Person beobachten und die Umgebung dieser Person. Das Alarmsystem erzeugt ein informatives Alarmsignal oder eine Nachricht mit Information über diese Faktoren, damit der Empfänger dieser Nachricht besser versteht, was los ist. In einer Ausführungsform ist das Alarmsignal ein Live-Video- und/oder Audiodarbietung, geliefert von einer Kamera, trainiert auf die zu beobachtende Person. In einer anderen Ausführungsform ist das Alarmsignal ein symbolischer Satz von Daten in Bezug auf den Zustand und die Umstände, der den Alarm auslöst, beispielsweise die Nachricht: "Die zu beobachtende Person in drei Stunden nicht besucht", "20 Minuten lang keine Bewegung detektiert", "Zu atmen aufgehört" oder "Beobachter nicht anwesend". Bei noch anderen Ausführungsformen erzeugt das System Reaktionen um Aktionen zu stimulieren, wie eine Reaktion von einem Beobachter, der in den Räumlichkeiten anwesend ist. Das Alarmsignal kann über Telefonleitung, übers Internet oder über einen drahtlosen Kanal übertragen werden.
  • Das Gebiet der künstlichen Intelligenz und der Robotik hat zu einer Technologie geführt, die es ermöglicht, dass Maschinen ihre Umgebung beobachten um vordefi nierte Umstände zu erkennen, Fahrzeuge zu steuern und beispielsweise Objekte und ihre Orientierung zu identifizieren. In dem Labor sind Elemente von Systemen, die als autonome Beobachter bezeichnet werden, hergestellt worden, wodurch eine Maschine einem Beobachter in einem Gebiet folgen kann und Fluchtrouten folgt. Andere Applikationen einer ähnlichen Technologie umfassen Videofolgesysteme, die einem Sprecher folgen, der eine Präsentation gibt, und auf Gebärdenbefehle des Sprechers reagieren. Bei Ausführungsformen der vorliegenden Erfindung kann die Technologie von Bild- und Videoerkennung, Audioerkennung und anderen Eingängen angewandt werden um die Umstände einer beobachtungsbedürftigen Person zu Überwachen.
  • Künstliche Intelligenzgrundlagen (AI) werden von einer Klassifikationsmaschine benutzt, die Video, Audio und/oder andere Eingänge empfängt zum Modellieren einer aktuellen Situation. Wenn Umstände als um Aufmerksamkeit bittend (Notlage) klassifiziert werden, können Video, Audio und andere Daten, die bis zur Notlage gespeichert werden können, sowie Live-Daten zu einem Monitor übertragen werden, und zwar zusammen mit einer Angabe der Klasse, zu der die erkannte Lage gehört. So kann beispielsweise das von einer weinenden, hilfsbedürftigen Person erzeugte Audiosignal als ein "Person weint" Umstand klassifiziert werden, entweder allein oder zusammen mit der Klassifizierung anderer Daten, wie Videodaten der hilfsbedürftigen, weinenden Person. Umstandsklassen für ein geeignetes Monitorsystem können Umstände umfassen wie:
    • 1. Auslösung durch einen Atmungssensor, Bewegungssensor oder Audiosensor, wie bei bekannten Anordnungen,
    • 2. Verzögerung in der Reaktionszeit eines Kindermädchens oder eines Au-Pair-Mädchens oder eines anderen Wärters zu einer hilfsbedürftigen Person,
    • 3. Bewegung (kriechen) der hilfsbedürftigen Person in verbotene Gebiete eines Raumes,
    • 4. plötzliche Bewegung übereinstimmend mit Stürzen, Laufen, normales Gehen, Kriechen, usw.,
    • 5. Fehlen einer normalen Bewegung, wie eine schnelle Bewegung, wie das Abholen eines Säuglings oder eines Kindes zu einem Zeitpunkt anders als der vorher definierte Zeitpunkt,
    • 6. Anwesenheit der hilfsbedürftigen Person oder anderer Personen in einem Raum
    • 7. Konsistenz der Kleidung, von Gesichtsmerkmalen usw. des Inhabers eines Raumes während der ganzen Zeitperiode,
    • 8. Laute Töne, normale Töne und ungewöhnliche Töne auf Basis der Signatur des Tones,
    • 9. Ortung der Tonquelle,
    • 10. Anwesenheit an nicht erlaubten Stellen,
    • 11. Anwesenheitsmuster, beispielsweise ob der Wärter ungewöhnliche Zeitabschnitte nicht bei der hilfsbedürftigen Person anwesend ist oder ob der Wärter ungewöhnliche Zeitabschnitte in einem bestimmten Raum verweilt,
    • 12. Muster übereinstimmend mit Beschädigung des Überwachungssystems,
    • 13. Stimmensignatur nicht befugter Besetzer oder nicht erkannte Stimmensignaturen,
    • 14. Körperhabitus und Physiognomie von Besetzern,
    • 15. Zustand des Sicherheitssystems in dem Raum,
    • 16. unerkannte Objekte in besetzten Räumen oder erkannte Objekte, die verlagert worden sind oder an unerwarteten Stellen gefunden wurden,
    • 17. Temperatur, Feuchte, Tonpegel, oder andere Umgebungsvariablen außerhalb des normalen Bereichs,
    • 18. Defekt zum Detektieren des Gesichtes eines Wärters über dem Kinderbett während eines bestimmten Intervalls und
    • 19. Anwesenheit eines nicht erkannten Gesichts- oder Körpermusters.
  • Der Umstand, der eine Alarmsituation auslöst kann einfach sein, wie bekannte Sensoren, die das Atmen oder Weinen überwachen, oder es können komplexere sein, die mehr Eingänge in ein Netzwerk integrieren um Entscheidungen zu treffen, wie zu dem Alarmzustand. Derartige Netzwerkanordnungen können Klassifizierer in Form neuraler Netzwerke, Bayesian-Netzwerke und anderer Techniken für Maschinenerkennung physikalischer Objekte und Verhalten. Das Angebot auf diesem Gebiet ist groß und wächst ständig und es lässt sich erwarten, dass verbesserte Mittel zum Implementieren der vorliegenden Erfindung ständig verfügbar werden. Vorzugsweise ist die Klassifizierungsmaschine trainierbar, so dass man sich nicht nur auf vordefinierte Vorlagemuster für Musterübereinstimmung zu verlassen braucht. Das System kann mit der Fähigkeit versehen sein, dass ein simulierter Dialog erzeugt wird um Hilfe zu leisten beim Training, wie Befragung eines Besetzers, aus einer Anzahl Situationsklassen in einem zu der betreffenden Zeit überwachten Raum zu wählen, wenn der Besetzer den überwachten Raum beobachten kann.
  • In einer Ausführungsform kann die vorliegende Erfindung auch einen simulierten Dialog mit einer maschinenerzeugten Rolle benutzen, wie in dem nachfolgenden Bezugsmaterial beschrieben, die je durch Bezeichnung als hierin aufgenommen betrachtet werden:
    • – US Patent Nr. 09/699.606 für eine umgebungsreaktive Benutzerschnittstelle/Unterhaltungsanordnung, die eine persönliche Interaktion simuliert;
    • – US Patent Nr. 09/686.831 für virtuelle Kreaturen, wiedergegeben an einem Fernsehschirm; und
    • – US Patent Nr. 09/699.577 Für eine Benutzerschnittstelle/Unterhaltungsanordnung, die eine persönliche Interaktion und Reaktionen auf den mentalen Zustand eines Besetzers und/oder Persönlichkeit reagiert.
    • US 5 505 199 beschreibt einen SIDS-Monitor, wobei das überwachte Ereignis ein Alarmsignal erzeugt, das ein überwachtes Signal umfasst.
  • Die Rolle kann in Reaktion auf einen bestimmten Umstand (mehrdeutige Klassifzierung bestehender Umstände oder gerade auf einer beliebigen oder Intervall-Zeitbasis) Information von Besetzern anfragen über die aktuellen Umstände. Die empfangene Rückkopplung kann von der Klassifizierungsmaschine benutzt werden um die übrig gebliebenen Umstände zu folgern und/oder zu einer verantwortlichen Partei weitergeleitet werden, und zwar zusammen mit anderer Information über die Umstände.
  • Die oben stehenden Applikationen beschreiben auch den Gegenstand der Klassifizierung einer eichen Anordnung mit Eingängen um Entscheidungen über Bewohner zu machen.
  • Die vorliegende Erfindung wird im Zusammenhang mit bestimmten bevorzugten Ausführungsformen beschrieben, und zwar anhand der nachfolgenden illustrativen Figuren, so dass es völlig verstanden werden kann. Anhand der Figuren wird hervorgehoben, dass die dargestellten Angaben als Beispiel gelten und nur zur Erläuterung der bevorzugten Ausführungsformen der vorliegenden Erfindung dargestellt sind und dargeboten werden um zu schaffen, was als die nützlichste und am leichtesten zu verstehende Beschreibung der Grundlagen und Konzeptaspekte der vorliegenden Erfindung ist. In dieser Hinsicht wird nicht versucht strukturelle Einzelheiten der vorliegenden Erfindung detaillier ter zu zeigen als notwendig ist für ein Basisverständnis der vorliegenden Erfindung, wobei durch die Beschreibung der Zeichnung dem Fachmann einleuchten dürfte, dass es viele Formen der vorliegenden Erfindung gibt, die in der Praxis verkörpert werden können.
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
  • 1 eine schematische Darstellung eines Hardware-Systems, das imstande ist, ein Überwachungssystem nach einer Ausführungsform der vorliegenden Erfindung zu unterstützen,
  • 2 ein Flussdiagramm hohen Pegels, das illustriert, wie Eingänge mehrerer Modalitäten gefiltert werden können um ein Alarmsignal zu erzeugen, konsistent mit verschiedenen Ausführungsformen der vorliegenden Erfindung,
  • 3 ein Funktionsdiagramm eines Software-Systems zum Implementieren eines Überwachungssystems nach einer Ausführungsform der vorliegenden Erfindung,
  • 4 ein Flussdiagramm, das die Erzeugung eines Alarmsignals nach einer Ausführungsform der vorliegenden Erfindung illustriert.
  • In 1 empfängt in einem Hardware-Apparat zum Implementieren einer Ausführungsform der vorliegenden Erfindung ein programmierbarer Controller 100 Eingangssignale von mehreren Quellen, beispielsweise von einem verbundenen Bildprozessor 305, der mit Kameras 135 und 136 verbunden ist, von einem Mikrophon 112, und von Sensoren 141. Die Sensoren 141 können Alarmsensoren enthalten, wie Atmungsmonitoren oder anderen SIDS-Vermeidungsdetektoren oder einen anderen Typ von Sensoren, wie Temperatursensoren, Lagensensoren, Sicherheitsschalter, Annäherungssensoren, elektrische Ladungssensoren, Umgebungslichtsensoren usw. Daten zur Aktualisierung der Software des Controllers 100 oder zum Liefern anderer erforderlicher Daten, wie Vorlagen zur Modellierung der Umgebung, können durch örtliche, Großbereich- oder Internetnetzwerke gesammelt werden, symbolisiert durch die Wolke 110. Der Controller kann Audiosignale liefern, beispielsweise synthetische Sprache oder Sprache von einem Fernsprecher) über einen Lautsprecher 114 oder eine Anordnung einer anderen Modalität. Zum Programmieren und Beantragen von Bewohnereingaben, kann ein Endgerät 116 vorgesehen werden.
  • 2 illustriert, wie Information, die von dem Controller 100 nach 1 gesammelt worden ist, verwendet werden kann zum Identifizieren bestimmter Umstände und ein Alarm erzeugen kann, und zwar in Reaktion auf diese Umstände. Eingaben von verschiedenen Modalitäten 500, wie Videodaten, Audiodaten, Umgebungsumstände, wie Temperatur, Schallpegel, Zustand des Sicherheitssystems, usw. werden einem trainierten Klassifizierer 510 zugeführt um unterscheidbare Merkmale einer überwachten Umgebung zu unterscheiden und zu klassifizieren. So kann beispielsweise der Klassifizierer 510 darauf trainiert sein, Gesichter zu unterscheiden um diese zu Klassifizieren als zu einem aus einem erkannten Satz gehörend oder als nicht zu einem Mitglied des erkannten Satzes gehörend. Für ein anderes Beispiel kann der Klassifizierer 510 darauf trainiert sein, plötzliche Geräusche wie Glasbruch oder stürzende Gegenstände zu klassifizieren. Noch andere Beispiele sind das Training, den emotionellen Zustand und die Gesundheit der überwachten Person durch Gesichtsausdruck, Physiognomie, Körperhabitus, Verhalten usw. aus Daten in einem Videosignal zu erkennen. Jede Klassifizierung von Ereignissen/Zuständen kann dann kombiniert und weiter als eine Alarmsituation klassifiziert werden. So kann beispielsweise der Klassifizierer trainiert werden, ein lautes Geräusch mit einem nachfolgenden nicht erkannten Gesicht als eine Alarmsituation zu identifizieren.
  • Die Technologien zum Trainieren derartiger Klassifizierer 510 sind durchaus entwickelt worden und wachsen schnell. Derartige Klassifizierer können unter Anwendung von Regeln zum Bilden beispielsweise eines Bayesian Klassifizierers explizit trainiert werden. Auf alternative Weise können sie trainiert werden, und zwar unter Verwendung von Beispielen, wie zum Trainieren eines neuralen Netzwerkes. Da das Thema, wie verschiedene Arten von Klassifizierern entworfen und trainiert sind, nicht das Ziel der vorliegenden Erfindung ist, ausgenommen insofern hier beschrieben, und weil die Technologie zum Entwerfen und Trainieren derartiger Klassifizierer gut entwickelt worden ist und stark variiert werden kann, werden die Einzelheiten an dieser Stelle nicht eingehend beschrieben. Eine bestimmte Schnittstelle zum Programmieren und/oder Trainieren des Klassifizierers 510 ist durch 530 bezeichnet. Das Endziel des Klassifizierers 510 ist den Zustand auszuliefern oder Alarminformation zu einem Alarmausgang 520 zu liefern. 520 und 520 können beide Netzwerk-Endgeräte, Zellen-Telefonanordnungen, PDAs, oder jede andere beliebige geeignete UI-Anordnung.
  • In 3 ist ein funktionelles Diagramm einer Ereignis-betriebenen Architektur gegeben, die benutzt werden kann zum Überwachen einer belegten Zone, die das durch den einzigen "schwarzen Kasten" des Klassifizierers 510 illustrierte Objekt in eine Anzahl Objekte unterteilt, deren Ausgänge kombiniert werden zum Klassifizieren von A larmsituationen. Der Audioeingang 245, der Videoeingang 255 und andere Benutzerschnittstellenanordnungen (nicht dargestellt) erzeugen Signale, die den betreffenden Klassifizierern 210, 240 zugeführt werden. Der Audioeingang 245, der von einem (nicht einzeln dargestellten) Mikrophon oder von einem (nicht einzeln dargestellten) Richtungs-Audiodetektor, der den Schall sowie die Richtung angibt, oder von jedem anderen beliebigen geeigneten Audiowandler empfangen werden kann, kann einem Audio-Klassifizierer 210 zugeführt werden. Diese letzteren Daten bilden ein Echtzeitsignal, das der Audio-Klassifizierer 210 durch geeignete digitale oder analoge Mittel oder eine Kombination derselben klassifiziert. Der Audio-Klassifizierer 210 erzeugt danach ein aktuelles Zustandsinformationssignal, das er dem mentalen Zustands/Gesundheitszustandsklassifizierer 290 und einem Ereignis/Klasseprozessor 207 zuführt.
  • Zur Erläuterung kann das von dem Audio-Klassifizierer erzeugte Signal ein Vektor sein, der die nachfolgenden Elemente umfasst:
    • 1. Identität des Lautsprechers,
    • 2. Anzahl Lautsprecher,
    • 3. Typ des Schalls (zerbrechend, stoßend, periodisch, klopfend, usw.)
    • 4. Schallintensitätspegel,
    • 5. Dauer, Tageszeit, bemerkenswerter Geräusche
    • 6. Sprachqualität (Flüstern, Schreien, schnell, usw.)
    • 7. Stimmqualität (maskulin, feminin, Kind, usw.), und
    • 8. identifiziertes Ereignis (Einschalten von Licht, schnarchen, metallischer Schall von Rundfunk oder Fernsehen, Staubsauger, usw.)
  • Jeder Fall eines diskreten Schallereignisses und/oder Zustandes kann mit einem Zeitstempel kombiniert werden, der die Zeit angibt, wo er begann und, wann er aufgehört hat und das kombinierte Vektorsignal kann dem Ereignis/Klasseprozessor 207 zugeführt werden.
  • Ein Videobildklassifizierer 240 empfängt Videoeingaben 255, klassifiziert Bilddaten und erzeugt Zustandsinformationssignale, die dem Geisteszustand/Gesundheitszustandsklassifizierer 290 und dem Ereignis/Klasseprozessor 207 zugeführt werden. Der Videobildklassifizierer 240 kann programmiert werden um bestimmte Ereignisse, wie Gebärden, schnelle Bewegungen, Anzahl Personen in dem Gesichtsfeld, usw. zu identifizieren. Wie beim Audio-Klassifizierer 210 kann das Ausgang ein Vektor sein, der zu Illustra tionszwecken die nachfolgenden Elemente umfasst:
    • 1. Anzahl Personen,
    • 2. Identität der Personen (einschließlich nicht erkannter Personen), was Information vom Körper, von Gesichtsmerkmalen, Bewegung usw. herleiten kann,
    • 3. Körperlage/Gebärden jeder Person (beispielsweise stehend, sitzend, trinkend, essend usw.)
    • 4. Größe vorübergehender Gegenstände in der Szene,
    • 5. Art der vorübergehenden Gegenstände in der Szene (beispielsweise Fernsehen, Teller, Wäschekorb, usw.),
    • 6. Geschwindigkeit einer Bewegung der Bildmitte von Personen als Angabe von Laufen oder Chaos, und
    • 7. Änderung des Kamerawinkels, usw.
  • Videoverarbeitungstechniken von mehreren Gebieten, wie Authentifizierung, Gebärdensteuerung von Maschinen, usw. können in dem aktuellen System entsprechend den bestimmten Zielen des Systementwerfers benutzt werden.
  • Andere Eingangsanordnungen mit assoziierten Klassifizieren 235 führen ihre Ausgangssignale dem Ereignis/Klassprozessor 207 zu. Die anderen UI Klassifizierer 235 können eine Ausrüstung aufweisen, welche die Umgebung, wie den Umgebungslichtpegel, die Tageszeit, die Temperatur des Raumes, den Sicherheitszustand eines Gebäudes, usw. überwacht.
  • Es können Textdaten von einem Sprache-zu-Textwandler 215 erhalten werden, der den Audioeingang 245 empfängt und diesen in Text verwandelt. Wenn von Audio erhalten, kann der Text von dem Sprache-zu-Textwandler 215 zeitmarkiert sein. Der Sprache-zu-Textwandler 215 bestimmt den Text grammatisch unter Verwendung grammatischer oder struktureller Regeln, wie diese in neuen oder bekannten Konversationssimulatoren, wie in natürlichen Sprachuntersuchungsmaschinen oder in anderen geeigneten Mitteln verwendet werden. Das Ergebnis dieser grammatischen Bestimmung ist die Extraktion von Wörtern oder Aussprachemerkmalen, die der Geisteszustand/Gesundheitszustandsklassifizierer 290 erkennen kann. Die grammatische Bestimmung kann unter Anwendung von regelbasierten Vorlagenübereinstimmung wie in Konversationssimulatoren oder unter Anwendung anspruchvollerer natürlicher Sprachmethoden. Wörter, die eine Andeutung der Stimmung sind, können dann dem Geisteszustands/Gesundheitszustandsklassifizierer 290 zugesendet werden zur Klassifizierung der Stimmung des Sprechers.
  • Der Geisteszustands/Gesundheitszustandsklassifizierer 290 empfängt Signale von den jeweiligen Klassifizierern und verarbeitet diese Signale zum Erzeugen eines Stimmungs/Persönlichkeitssignals. Der Geisteszustands/Gesundheitszustandsklassifizierer 290 kann ein trainiertes neurales Netzwerk, ein Bayesian-Netzwerk, ein einfaches regelbasiertes System oder jeder andere beliebige Klassifizierertyp sein, der imstande ist, viele verschiedene Eingaben zu nehmen und eine Wahrscheinlichkeit vorherzusagen, dass der Bewohner sich in einem bestimmten emotionellen Zustand befindet und eine bestimmte Persönlichkeit hat. Es können mehrere Persönlichkeits- und Stimmungstypologien angewandt werden, und zwar von einfach bis komplex. Ein Beispiel eines Satzes mit Regeln zum Klassifizieren eines Bewohners wie beschrieben ist:
    • – eine geringe Satz/Satzglied Wortzählung (die Sätze der Person enthalten nur wenig Wörter) (einschließlich des Grammatiksignals 410, das eine Reaktionswortzählung angibt),
    • – ein geringes Vorkommen von Wörtern, die Begeisterung nahe legen, wie Superlativen (das Eingangsgrammatiksignal 410 gibt Adjektive an),
    • – einen ziemlich flachen Ton in der Stimme (wobei das Signal des Audio-Klassifizierers 210 eine Modulationsflexionsintensität angibt),
    • – keine physikalische Bewegung (das Signal des Videobild-Klassifizierers 240 gibt ... usw.)
    • – wenig Bewegung von Kopf oder Körper,
    • – seufzende Geräusche, usw.,
    • – auf die Uhr sehen, und
    • – kein Augenkontakt mit Gegenständen, wie Fernseher oder Buch in der Szene.
  • Jeder dieser Punkte kann von dem entsprechenden Klassifizierer klassifiziert werden. Die Farbe der Kleidung des Bewohners, die Stimmlage des Bewohners, die Anzahl Male, dass der Bewohner eine einzige Szene betritt oder verlässt, die Art der Gebärden des Bewohners usw. können alle Hinweise auf den Geisteszustand und/oder die Persönlichkeit des Bewohners geben. Der Ausgangsvektor kann jede gewünschte geeignete Geisteszustandsklassifizierung sein. So kann beispielsweise die in dem US Patent Nr. 5.987.415 vorgeschlagene Valenz/Intensitäts Geisteszustandstypologie angewandt werden.
  • Die nachfolgenden Tabellen fassen die "Großen Fünf" zusammen, was eine evolutionäre Nebenerscheinung der Myers-Briggs-Typologie ist. Es gibt viele wissenschaft liche Arbeiten auf dem Gebiet der Modellierung von Geisteszuständen und Persönlichkeiten und viele davon betreffen die Themen von Maschinenklassifikation auf Basis von Stimme, Gesichtsausdruck, Körperhaltung und vielen anderen Maschineneingaben. Sogar das Wetter, das unter Verwendung eines Agenten übers Internet oder über Messinstrumente, die Wettergrunddaten wie täglichen Sonnenschein, messen, erhalten werden kann, kann verwendet werden um den Geisteszustand oder emotionellen Zustand zu folgern.
  • Die sechs Facetten negativer Emotionalität (bearbeitet nach Costa & McCrae, 1992) mit Ankern für die zwei Extremen des zusammenhängenden Ganzen.
    Figure 00120001
  • Die sechs Facetten der Extraversion (bearbeitet nach Costa & McCrae, 1992) mit Ankern für die zwei Extremen des zusammenhängenden Ganzen
    Figure 00120002
  • Die sechs Facetten der Offenheit (bearbeitet nach Costa & McCrae, 1992) mit Ankern für die zwei Extremen des zusammenhängenden Ganzen
    Figure 00130001
  • Die sechs Facetten der Liebenswürdigkeit (bearbeitet nach Costa & McCrae, 1992) mit Ankern für die zwei Extremen des zusammenhängenden Ganzen
    Figure 00130002
  • Die sechs Facetten der Gewissenhaftigkeit (bearbeitet nach Costa & McCrae, 1992) mit Ankern für die zwei Extremen des zusammenhängenden Ganzen
    Figure 00140001
  • Der Geisteszustand/Gesundheitszustandsklassifizierer 290 liefert einen Zustandsvektor, mit einer Anzahl Freiheitsgrade, der den von dem Entwerfer gewählten Modellen der Persönlichkeit und des Geisteszustandes entspricht. Der Geisteszustand/Gesundheitszustandsklassifizierer 290 kann aktuelle Daten über eine Zeitperiode beim Modellieren der Persönlichkeit sammeln, da dies ein fortdauernder Zustand ist. Der Geisteszustand wird mehr flüchtige Elemente haben.
  • Der Ereignis/Klasseprozessor 207 ist ein Klassifizierer, der Zustandsinformation von vielen Klassifizierern kombiniert zum Erzeugen eines Umgebungs/Bewohnerzustandssignals, das den aktuellen Zustand der Umgebung des Systems, einschließlich der Bewohner, insbesondere der beobachteten Person, angibt. Der Ereignis/Klassprozessor kann auch Ereignissignale (Unterbrechungssignale) erzeugen um eine augenblickliche Reaktion zu gewährleisten, wenn bestimmte Ereignisse von den Klassifizierern erkannt werden, beispielsweise Ereignisse, die mit einem Notzustand zusammenfallen. Die Erkennung von Ereignissen kann Zustandsinformation von vielen Klassifizierern erfordern, so dass der Ereignis/Klasseprozessor 207 Zustandsdaten von vielen Klassifizierern kombiniert zum Erzeugen eines kombinierten Zustandssignals und eines kombinierten Ereignissignals. Das Umgebungs/Zustandssignal kann eine Angabe aller möglichen Ereignisklassen enthalten, welche die jeweiligen Klassifizierer imstande sind zu identifizieren oder nur diejenigen, die einen Vertrauensschwellenpegel überschreiten.
  • Der Ausgangsgenerator 415 empfängt den Stimmungs/Persönlichkeitszustandsvektor und grammatisch bestimmte Antwortdaten von dem Geisteszustand/Gesundheitszustandsklassifizierer 290 bzw. dem Eingangssyntaxanalysator 410. Der Reaktionsgenerator 415 empfängt auch das Umgebungs/Bewohnerzustandssignal und das Ereignissesignal von dem Ereignis/Klasseprozessor 207. Der Ausgangsgenerator 415 selektiert einen Reaktionstyp entsprechend dem Geisteszustand, dem Umgebungs/Bewohnerzustand, und dem Ereignissesignal von einer internen Datei und erzeugt, falls erforderlich, ein Alarmausgangssignal. Auf alternative Weise kann der Ausgangsgenerator derart programmiert werden, dass er eine Ausgangsvorlage selektiert, die weitere Daten von einem Bewohner über die Benutzerschnittstelle anfordert, wie über das Endgerät 116 (1). Wenn beispielsweise die jeweiligen Klassifiziererausgangselemente niedrige Vertrauenspegel angeben, könnte das System Sprache über den Lautsprecher 114 erzeugen, wobei um Information über den aktuellen Zustand des betreffenden Raums gebeten wird. So könnte beispielsweise "Ist jemand da" erzeugt werden, wenn die Anwesenheit eines Erwachsenen nicht detektiert werden kann. Das System benutzt dann die anderen Eingangsanordnungen, wie einen Videoeingang 255, um Zweideutigkeit in den Zustands- und Ereignissignalen zu verringern. Es sei bemerkt, dass diese Besonderheiten über einen Konversationssimulator implementiert werden können, wie dieser in den US Patenten Nr. 09/699.606, 09/686.831 und 09/699.577 beschrieben worden ist, und dass sie in das System eingebaut werden können um als Maschinenassistenten zu funktionieren.
  • Verfolgung des Datenflusses, anfangend mit dem Videoeingang 255, wird das Signal des Videoeingangs 255 dem Videobildklassifizierer 240 zugeführt. Der Videobildklassifizierer 240 ist programmiert um eine Anzahl verschiedener Bilder und Videofolgeklassen in dem Videoeingangssignal 255 zu erkennen. So kann beispielsweise der Klassifizierer programmiert sein um eine sitzende von einer liegenden Person zu unterscheiden; um eine still sitzende Person von einer Person zu unterscheiden, die aufgeregt sich bewegt oder ein Gebiet verlässt. Eine Wahrscheinlichkeit für all diese Klassen kann erzeugt und als ein Signal ausgeliefert werden. Auf alternative Weise kann eine einzige, meist wahrscheinliche Klasse erzeugt und als Signal ausgeliefert werden. Dieses Signal wird dem Ereignis/Klasseprozessor 207 zugeführt, der diese Daten mit anderen Klassendaten kombiniert zum Erzeugen eines Umgebungs/Bewohnerzustandssignals. Wenn der Ereignis/Klasseprozessor 207 eine Angabe von dem Videobildklassifizierer 240 empfängt, dass etwas Plötzliches und Wichtiges aufgetreten ist, beispielsweise dass der Bewohner aufgestanden ist und den Raum verlassen hat, wird der Ereignis/Klasseprozessor 207 ein Ereignissignal erzeugen. Wenn der Geisteszustand/Gesundheitszustandsklassifizierer 290 ein Signal von dem Videobildklassifizierer 240 empfängt, das angibt, dass der Bewohner in einem Zustand der Aufregung sind bewegt, kann dieser Geisteszustand/Gesundheitszustandsklassifizierer 290 diese Information mit anderen Klassifizierersignalen kombinieren um einen Stimmungs/Persönlichkeitszustandsvektor zu erzeugen, der einen emotionellen Zustand erhöhter Aufregung angibt. So kann beispielsweise der Audio-Klassifizierer 210 gleichzeitig angeben, dass die Stimme des Sprechers eine höhere Stimmlage als üblich hat und dass der Eingangssyntaxanalysator angibt, dass die Wortzählung der jüngsten Äußerungen niedrig ist.
  • Es sei bemerkt, dass, damit das System ermitteln kann, ob eine aktuelle Klasse oder ein aktueller Zustand eine Änderung gegenüber einem vorigen Mal darstellt, der Ereignis/Klasseprozessor 207 und der Geisteszustand/Gesundheitszustandsklassifizierer 290 mit einer Datenspeichermöglichkeit und mit Mitteln zum Ermitteln des aktuellen Bewohners versehen sein kann, so dass entsprechende Historien für verschiedene Bewohner gespeichert werden können. Identifikation von Bewohnern, wie oben erwähnt, kann durch Gesichtserkennung mit Hilfe des Videobild-Klassifizierers 240, der Stimmensignatur erfolgen. Sie kann auch durch RFID-Zeichen ("Radio Frequency Identification"), durch eine Smart-Card oder eine einfache Benutzerschnittstelle, die es ermöglicht, dass der Bewohner sich mit einem biometrischen Indikator, wie einem Fingerabdruck oder einfach einen PIN-Code identifiziert. Auf diese Weise können der Geisteszustand/Gesundheitszustandsklassifizierer 290 und der Ereignis/Klasseprozessor 207 je historische Daten mit bestimmten Bewohnern korrelieren und dies beim Identifizieren benutzen und Trends zu dem Ausgangsgenerator 415 signalisieren.
  • Der Ereignis/Klasseprozessor 207 empfängt Klasseinformation von dem Audio-Klassifizierer 210 und von anderen Klassifizierern und versucht diese mit einer Me taklasse zu identifizieren, die er zu erkennen trainiert hat. Das bedeutet, er kombiniert Klassen von Zuständen um einen überspannten Zustand zu definieren, der dieser Vielheit an Zuständen entspricht. Selbstverständlich ist die hier beschriebene Architektur nicht die einzige Möglichkeit die jeweiligen Merkmale der vorliegenden Erfindung zu implementieren und auf den Ereignis/Klasseprozessor 207 könnte einfach verzichtet werden und seine Aufgaben könnten von dem Ausgangsgenerator 415 übernommen werden. Ein Vorteil der Trennung der Funktionen ist aber der, dass der Ereignis/Klasseprozessor 207 einen anderen Klassifizierertyp benutzen kann als den, der von dem Ausgangsgenerator 415 benutzt wird. So könnte beispielsweise der Ausgangsgenerator 415 einen regelbasierten Vorgabeangleicher verwenden, während der Ereignis/Klasseprozessor 207 einen trainierten Klassifizierer vom neuralen Netzwerktyp verwenden könnte. Diese Zuordnungen von Funktionen kann günstiger sein, je nachdem die Anzahl Ausgänge des Ausgangsgenerators 415 höher ist als die Anzahl Klassen, die der Ereignis/Klasseprozessor 207 (oder die anderen Klassifizierer) zu erkennen trainiert ist. Dies folgt aus der Tatsache, dass Klassifizierer vom Netzwerktyp (wie ein neuraler Netzwerkklassifizierer und ein Bayesian Netzwerkklassifizierer) nur schwer trainiert werden können, wenn sie eine Vielzahl möglicher Ausgangszustände haben.
  • Der Prozess des Videobild-Klassifizierers 240 kann die Fähigkeit haben, die Kameras (dargestellt durch den Videoeingang 255) zu steuern, die Videoinformation empfangen. Der Videobildklassifizierer 240 kann einen Prozess umfassen, der regelmäßig versucht, Gegenstände in dem Raum zu unterscheiden, die ggf. Individuen sein können und mehrere Merkmale dieser Individuen zu vergrößern. So kann beispielsweise jedes Mal, dass ein Videobildidentifizierer ein neues Individuum identifiziert, dieser Bild-Klassifizierer versuchen, zu identifizieren, wo das Gesicht in dem sichtbaren Feld ist und regelmäßig auf das Gesicht jedes Individuums heranzugehen, das in dem Gesichtsfeld identifiziert worden ist, damit Gesichtsausdruckinformation erhalten wird, die benutzt werden kann zum identifizieren des Individuums oder zum Identifizieren der Stimmung des Individuums.
  • Es sei bemerkt, dass die vorliegende Erfindung ohne die Verwendung künstlicher Intelligenztechnologie (AI), wie oben beschrieben, entworfen werden kann, obschon die Robustheit der AI-Technologie es sehr wünschenswert macht, dies zu tun. So kann beispielsweise ein Audiosignal durch einen Bandpassfiltersatz gefiltert werden zum Detektieren lauter Krachgeräusche und ein Detektor, der ein Zeitsperrausgangssignal setzt, wenn das Filterausgangssignal über einem bestimmten Pegel liegt. Gleichzeitig kann ein Videoleuchtdichtesignal tiefpassgefiltert werden und wenn die Energie einen bestimmten Pegel unterschreitet, wird ebenfalls eine Zeitsperre gesetzt. Wenn die beiden Sperrsignale positiv werden (lautes Geräusch und eine große Aktivität in der zeitlichen Nähe) kann das System einen Alarm auslösen.
  • Alarmsignale können auf einfache Weise eine bestimmte Art von Anzeige eines Alarmzustandes enthalten. Vorzugsweise aber sollen Alarme möglichst informativ sein innerhalb der bestimmten Entwurfskriterien. So kann beispielsweise ein Alarmsignal Audio- und/oder Videodaten enthalten, die dem (den) Ereignissen) vorhergehen bzw. folgen, das bzw. die den Alarmzustand auslöste(n). Dies könnte von dem Ausgangsgenerator 415 aufgezeichnet und per E-Mail übertragen werden, über eine Zellen-Telefonverbindung oder eine drahtlose Wandleranordnung mit Videofähigkeiten, oder über andere Mittel. Symbolische Darstellungen der signifikantesten Zustandsklassen, die zu der Metaklassifizierung der Alarmsituation führten können auch übertragen werden. So kann beispielsweise ein Symbol, das "laute Geräusche" andeutet und/oder das einen nicht erkannten Bewohner angibt, übertragen werden, und zwar sagen wird zu einem Text-Pager, der von einer verantwortlichen Partei benutzt wird.
  • In 4 kann eine beliebige Anzahl Signale ständig gespeichert sein, wie durch den Schritt S10 angegeben. Wenn eine Alarmsituation angegeben wird, wird in dem Schritt S15 ermittelt, ob die betreffende Alarmsituation vorher nichtig gemacht worden ist. Sollte dies der Fall sein, so wird eine Pufferung von Signalen wieder aufgenommen und es wird keine weitere Aktion unternommen. Sollte die Alarmsituation nicht nichtig gemacht worden sein, so wird in dem Schritt S20 eine Nachricht erzeugt und die gepufferten Signale 1 ... N in dem Schritt S30 angehängt. Die Alarmnachricht wird danach beispielsweise per E-Mail in dem Schritt S40 übertragen und in dem Schritt S50 wird, falls erforderlich, eine etwaige Live-Zuführung erzeugt. Die Live-Zuführung kann an einer URL-Adresse verfügbar gemacht werden eingeschlossen in eine E-Mailübertragung oder als Teil eines Signals in einer mit einem automatischen Anruf zu einem digitalen Videotelefon übertragenen Nachricht.
  • Das gepufferte Signal kann nicht mehr als eine Zeitfolge sein, die den Zustand eines oder mehrerer Sensoren über Zeit angibt. Die gepufferten Signale brauchen keine Signale zu sein, welche die Angabe einer Alarmsituation verursachten. So kann bei spielsweise in einer Ausführungsform der vorliegenden Erfindung eine Videokamera auf das Bett einer Person trainiert sein. Das Alarm kann durch einen mechanischen Sensor (wie ein Brustband) ausgelöst werden, der das Atmen detektiert. Das Videosignal wird gepuffert bis zum Zeitpunkt der Detektion des Aussetzens der Atmung einer Person, was das Signal sein kann, dass als Teil der Alarmnachricht übertragen werden kann. Die Länge des Puffers kann wie erwünscht sein.
  • Jeder Alarm kann ein einzigartiges Ereignis sein, aber jeder kann auch durch dieselbe bleibende Situation erzeugt werden, beispielsweise das Fehlen der Atmung eines Säuglings oder eines Kindes während einer Zeitperiode. Für einem bestimmten Alarm ist es erwünscht, dass es bestätigt wird, so dass eine neue Alarmsituation, die aus anderen Umständen entsteht, nicht mit dem bestehenden Alarm verwechselt wird, der zu der betreffenden zeit gemeldet wurde. Eine Art und Weise dies zu meistern ist, jedem Alarm eine Signatur zuzuordnen, und zwar auf Basis eines Vektors der Bestandteile, die zu einer Alarmsituation führen. Die Erkennung derselben Alarmsituation würde zu einem anderen Vektor führen, der mit einer Tabelle bestehender Alarmsituationen verglichen werden kann (in dem Schritt S15) um zu sehen, ob der neue Alarm bereits nichtig gemacht wurde. Die Elemente können quantisiert werden um gegen kleine Differenz in Vektorelementen zu versichern, die als anders identifiziert wurden oder es kann ein Niedrig-Empfindlichkeitsvergleich verwendet werden um denselben Effekt zu erreichen.
  • Alarmsignale können durch jedes der nachfolgenden Mittel übertragen werden.
    • 1. Durch einen automatischen Anruf mit einer synthetischen Stimme, die eine symbolische Andeutung einer Alarmsituation liefert (vorher aufgezeichnete Sätze oder synthetische Sprache) und/oder gepuffertes Audio und/oder Live-Audio, zugeführt aus dem überwachten Raum.
    • 2. Drahtlose Apparatur mit Video kann Obenstehende sowie aufgezeichnete und/oder Live-Daten sowie Textnachrichten enthalten, welche dieselbe Information liefern.
    • 3. E-Mailnachrichten können Kopplungen zu einer URL-Adresse enthalten mit Live- oder mit aufgezeichneten Daten oder sie können MIME-Anhängsel enthalten, die Standbilder oder Bewegtbilder enthalten.
    • 4. Funkübertragung: Funknachrichten, Audionachrichten, Wiedergabe an einem verdrahteten Bedienungsfeld, usw.
  • Nachstehend folgen einige Beispiele von Applikationen und Szenarien.
  • Beispiel 1:
  • Ein Bettchen eines Säuglings steht an einer Wand mit einer oder mehreren Kameras 135, 136, abgezielt auf die Seite des Bettchens, wo ein Versorger normalerweise stehen würde um den Säugling zu sehen. Ein Mikrophon 112 befindet sich an einer Stelle, um Geräusche in der Nähe des Bettchens aufzunehmen. Der Controller 100 empfängt Live-Video- und Audiosignale von der Kamera und dem Mikrophon und filtert sie über betreffende Klassifizierer 240 bzw. 210. Der Controller 100 ist programmiert um das Gesicht des Versorgers zu erkennen und erzeugt ein Signal, das angibt, dass ein Gesicht anwesend ist und liefert eine Zuverlässigkeitsschätzung, die angibt, wie gut das Gesicht der Erwartung entspricht. Der Controller 100 kann derart programmiert sein, dass er andere Gesichter auch erkennt, wie von Verwandten des Säuglings und von Kindern. Der Controller 100 ist weiterhin programmiert um das Geräusch des Weinens zu erkennen und erzeugt ein Signal, das angibt, das geweint wird. Außerdem ist der Controller 100 programmiert um die folgenden Ereignisse zu erkennen und erzeugt entsprechende Signale: normalen und anormalen Körperhabitus des Säuglings, Gesichtsausdruck des Säuglings, der die Stimmung angibt, wie Weinen, Zufriedenheit, Spielen, notleidend, schnelle oder langsame Bewegungen, die Anzahl anwesender Individuen, das Vorhandensein neuer Gegenstände in dem Raum und deren "BLOB"-Größe ("BLOB" ist ein Term eines spezieller Datentyps, mit dem beliebige (Binär-)Dateien, z.B. multimediale Daten wie Bilder, Texte und Grafiken, als Feldinhalt in Datenbanksystemen abgelegt werden können) Stimmung des erkannten Gesichtes des Versorgers.
  • In dem oben stehenden Beispiel können die nachfolgenden Ereignisse auftreten. Der Säugling weint und der Versorger reagiert nicht darauf. Die Stimmung des Säuglings wird durch die empfangenen Audio- und Videosignale detektiert. Eine synthetische Stimme ruft über den Lautsprecher 114 den Versorger und bittet um Hilfe für den Säugling. Die vergangene Zeit zwischen der Erkennung der Notlage des Säuglings und der aktuellen Zeit erreicht ein bestimmtes Intervall, das einen Alarm auslöst. Das Alarmsignal umfasst eine Textnachricht, gepuffertes Video und gepuffertes Audio von einer Zeit vor der Alarmsituation. Das Alarmsignal wird per E-Mail gesendet.
  • Beispiel 2:
  • Die Systemkonfiguration des Beispiels 1 ist in das vorliegende Beispiel eingeschlossen. An mehreren Stellen in einem Haus sind extra Kameras und Mikrophone aufgestellt. Ein Säugling auf der Couch wird detektiert. Der Versorger wird auf der Couch detektiert. Der Ton des Fernsehers wird detektiert. Die Körperlage des erwachsenen Versorgers wird in einer schlafenden Position detektiert. Das System erzeugt synthetische Sprache, mit der Absicht, den Versorger zu erwecken und auf das Kind aufmerksam zu machen (wobei die Programmierung des Controllers 100 eine Reflektion einer Besorgnis ist, dass der Säugling nicht an einer sicheren Stelle ist um unbeaufsichtigt zu sein. Nach einem vorbestimmten Intervall, in dem festes Schlafen (oder Krankheit oder Tod) detektiert wird, wird ein Alarm ausgelöst. Der Alarm enthält Standbilder von dem Video (von einer Zeit vor dem Alarm) des schlafenden Erwachsenen und des Säuglings und Live-Audio und Video aus dem Raum, in dem der Säugling und der Erwachsene sich befinden.
  • Beispiel 3:
  • Die physikalische Konfiguration (einschließlich der Programmierung) des Beispiels 2 ist in dem vorliegenden Beispiel einverleibt. In diesem Beispiel sind der Säugling und das Bettchen durch einen kranken Erwachsenen ersetzt worden und der Versorger ist ein Erwachsener. Der Überwacher ist eine Agentur, welche die Krankenschwester geliefert hat. Die von dem System detektierte Alarmsituation ist das Fehlen von Bewegungen von Gegenständen oder Personen in dem Haus. Die Erkennung von Bewohnern, die Gesichtserkennung, die Erkennung von Körperhabitus und Körperlagen, Audio usw. erzeugen Angaben eines Vorhandenseins eines Erwachsenen in einem Wohnzimmer, aber die Signale haben einen geringen Zuverlässigkeitswert und es gibt keine Angabe einer Aktivität (Bewegung des Bewohners). Das System ist derart programmiert, dass es einen Alarm auslöst, wenn keines des Satzes erwarteter Ereignisse wie das Erscheinen eines erkennbaren Gesichtes am Bett der kranken Person, eine Bewegung plus eine Erkennung der Körperlage einer Person an erwarteten Stellen in einem Haus, usw. während eines vordefinierten Intervalls. Das Alarmsignal enthält ein Live-Video und Audiosignal, das von dem Überwacher gesteuert werden kann (der Bilder umschalten kann und der mit dem Krankenschwester kommunizieren kann).
  • Beispiel 4:
  • Das System des Beispiels 3 ist in dem vorliegenden Beispiel einverleibt. Ein Babysitter sorgt für einige Kinder. Das System ist derart programmiert, dass es das Gesicht des Babysitters und die Gesichter der Kinder zusammen mit mehreren kennzeichnenden Elementen dieser Menschen, wie Körperhaltung, Bewegungsmuster usw. erkennt. Das System ist derart programmiert, dass es einen Alarm auslöst und diesen zu einer drahtlosen Handanordnung überträgt, wenn eines der nachfolgenden Ereignisse auftritt: (1) die Anzahl detektierter Anwesender in dem Haus (das System detektiert gleichzeitig mit mehreren Kameras eine bestimmte Anzahl Individuen) ist größer als eine vordefinierte Anzahl (vermutlich der Babysitter und die Kinder) oder (2) das System detektiert ein nicht erkanntes Gesicht (d.h. es empfängt ein gutes Bild eines Gesichtes, kann aber nicht eine zuverlässige Übereinstimmung mit einer bekannten Vorlage erzeugen), (3) Türen sind längere Zeit offen gelassen (wie durch den Zustand des Sicherheitssystems angegeben), (4) Bewegung von Personen in dem Haus ist übermäßig, was ggf. auf Misshandlung oder Missbrauch deuten könnte.
  • Obschon in den beschriebenen Ausführungsformen das Gesicht, die Stelle und die Aktivitäten von Versorger und von der zu versorgenden Person überwacht wurden, ist es möglich, nur eine Person statt die beiden zu überwachen. Auch der Begriff erkannter oder nicht erkannter "Personen" kann auch auf Jungtiere als auch auf menschliche Personen angewandt werden, obschon zugestandenermaßen der Stand der Technik nicht an einer Stelle ist, wo das Gesicht eines Jungtieres von denen anderer Tiere unterschieden werden kann, bestimmt ist die BLOB-Erkennung ein Punkt, wo das System zwischen einem Puddel und einer Katze oder Kinder von Tieren und/oder animierten Gegenständen, wie Robotern, unterscheiden kann.
  • Während die vorliegende Erfindung in dem Kontext der oben beschriebenen bevorzugten Ausführungsformen erläutert worden ist, dürfte es einleuchten, dass mehrere Abwandlungen möglich sind und dass im Rahmen der vorliegenden Erfindung mehrere Äquivalente ersetzt werden können, was dem Fachmann einleuchten dürfte.
  • 1
  • 122
    Beobachter
    110
    Netzwerk
    140
    Server
    114
    Lautsprecher
    100
    Controller
    305
    Bildprozessor
    141
    Sensoren
    112
    Audio-Wandler (mit Richtungsdaten)
    116
    Endgerät
  • 2
  • 530
    Programm/Lernen
    520
    Alarmausgang
    510
    Ereignis, Geisteszustand, Gesundheitszustandsklassifizierer
    500
    Eingänge der jeweiligen Modalitäten
    530
    dringender zusätzlicher Eingang
  • 3
  • 215
    Sprache zu Text
    245
    Audioeingang
    410
    Eingang Syntaxanalysator
    235
    Andere Eingänge und Klassifizierer
    210
    Audio-Klassifizierer
    290
    Geisteszustand/Gesundheitszustandsklassifizierer
    207
    Ereignis/Klasseprozessor
    256
    Bewohnerklassifizierer
    240
    Videobildklassifizierer
    255
    Videoeingang
    Ereignisse (Unterbrechungen)
    Umgebungs/Bewohnerzustand
    Geisteszustand
    Gesundheitszustand
    Syntaxantwort
    415
    Ausgangsgenerator
    445
    Alarmausgang
  • 4
  • Start
    Kein Alarm
    Puffersignale
    Ende Live-Zufuhr
    Alarmsituation
    Alarm nichtig gemacht?
    Ja Nein
    Erzeugung Alarmnachricht
    Gepufferte Signal anhängen
    Übertragung von Alarmnachricht
    Übertragung von Live-Zufuhr

Claims (15)

  1. Anordnung zur Überwachung einer ersten Person, die Beaufsichtigung erfordert, wobei diese Anordnung die nachfolgenden Elemente umfasst: – einen Controller (100), der programmiert ist zum Empfangen wenigstens eines Überwachungssignals von einem Umweltmonitor (135, 305, 141, 112), der sich in einer überwachten Zone befindet, – wobei der genannte Controller programmiert ist, wenigstens eine Alarmsituation zu klassifizieren, die für die genannte erste Person bedrohend ist antwortend darauf, dass der genannte Umweltmonitor Klassendaten erzeugt, und – wobei der genannte Controller programmiert ist zum Erzeugen eines Alarmsignals in Reaktion auf die genannten Klassendaten, wobei das genannte Alarmsignal wenigstens einen Teil des genannten Überwachungssignals enthält, wenigstens eines unmittelbar vor oder unmittelbar nach einem Auftritt der genannten Alarmsituation, dadurch gekennzeichnet, dass der genannte Controller programmiert ist die Stimme eines Sprechers zu erkennen, wobei das genannte Alarmsignal eine Reaktion auf eine Erkennung der Stimme des Sprechers oder auf ein Versagen der Erkennung der genannten Stimme des Sprechers ist.
  2. Anordnung nach Anspruch 1, wobei das genannte wenigstens eine Überwachungssignal wenigstens ein Standbild, ein Video- oder ein Audiosignal enthält.
  3. Anordnung nach Anspruch 1, wobei der genannte Controller programmiert ist um Gesichter zu erkennen und die genannte Alarmsituation eine Reaktion darauf ist, dass ein Gesicht erkannt oder nicht erkannt wird.
  4. Anordnung nach Anspruch 3, wobei der genannte Controller programmiert ist eine Aktion von einem Inhaber anzufordern, wobei das genannte Überwachungssignal eine Reaktion auf die genannte Aktion durch den Inhaber ist.
  5. Anordnung nach Anspruch 1, wobei der genannte Controller programmiert ist, eine Aktion von einem Inhaber anzufordern, wobei das genannte Überwachungssignal eine Reaktion auf die genannte Aktion durch den Inhaber ist.
  6. Anordnung nach Anspruch 1, wobei das genannte wenigstens eine Überwachungssignal einen Detektor (141) aufweist, der vorgesehen ist, eine Verfehlung in der Atmung der genannten Person zu detektieren.
  7. Anordnung nach Anspruch 1, wobei das genannte Alarmsignal wenigstens einen Teil des genannten Überwachungssignals unmittelbar vor und unmittelbar nach einem Auftritt der genannten Alarmsituation aufweist.
  8. Anordnung nach Anspruch 1, wobei das genannte Alarmsignal wenigstens ein Audiosignal, ein Textdatensignal oder ein Videosignal enthält.
  9. Verfahren zum Überwachen einer Person die Beaufsichtigung erfordert, wobei dieses Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Erzeugen eines ersten Signals, das eine Anzeige von einem Zustand einer Person oder von der Umgebung der Person ist, – das Detektieren eines Ereignisses, das die Aufmerksamkeit einer in einem Abstand befindlichen Aufsichtsperson verlangt, – das Übertragen wenigstens eines Teils des genannten ersten Signals zu der genannten in einem Abstand befindlichen Aufsichtsperson, als Reaktion auf ein Ergebnis des genannten Detektionsschrittes, dadurch gekennzeichnet, dass das Ereignis eine Erkennung der Stimme der genannten Person oder ein Nicht Erkennen der Stimme der genannten Person ist.
  10. Verfahren nach Anspruch 9, wobei der genannte Verfahrensschritt der Übertragung die Übertragung eines elektromagnetischen Signals mit wenigstens einem Audiosignal, einem Videosignal oder mit Textdaten enthält.
  11. Verfahren nach Anspruch 9, wobei die genannte Person ein Kind ist und der genannte Verfahrensschritt der Detektion die Detektion der Verfehlung der Atmung des genannten Kindes ist.
  12. Verfahren nach Anspruch 9, wobei der genannte Verfahrensschritt der Detektion die Detektion wenigstens eines Audiosignals oder eines Videosignals ist und die Klassifizierung eines vorbestimmten Musters in dem genannten Audiosignal oder Videosignal ist.
  13. Verfahren nach Anspruch 9, wobei der genannte Verfahrensschritt der Detektion die Detektion des Verhaltens einer Person anders als das genannte Kind und in der Umgebung des Kindes ist.
  14. Verfahren nach Anspruch 9, wobei der genannte Verfahrensschritt der Detektion wenigstens das Erkennen eines Gesichtes der genannten Person oder einer anderen Person, das Klassifizieren eines Körperhabitus der genannten Person, das Klassifizieren eines Gesichtausdrucks der genannten Person, die Detektion einer Bewegungsgeschwindigkeit der genannten Person oder einer anderen Person, die Detektion einer Anzahl Personen in einer bestimmten Zone und die Erkennung einer Stimmensignatur ist, wobei die Verfahrensschritte der Erkennung, der Klassifizierung und der Detektion automatische Maschinenprozesse sind.
  15. Verfahren nach Anspruch 9, wobei der genannte Verfahrensschritt die Detektion einer Verfehlung wenigstens einer Bewegung der genannten Person oder einer anderen Person zu bewegen, zu sprechen oder andere detektierbare Aktivitäten zu erzeugen.
DE60204292T 2001-03-15 2002-02-21 Automatisches überwachungsystem für einen patient und seinen krankenpfleger Expired - Lifetime DE60204292T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US808848 2001-03-15
US09/808,848 US6968294B2 (en) 2001-03-15 2001-03-15 Automatic system for monitoring person requiring care and his/her caretaker
PCT/IB2002/000547 WO2002075687A2 (en) 2001-03-15 2002-02-21 Automatic system for monitoring person requiring care and his/her caretaker automatic system for monitoring person requiring care and his/her caretaker

Publications (2)

Publication Number Publication Date
DE60204292D1 DE60204292D1 (de) 2005-06-30
DE60204292T2 true DE60204292T2 (de) 2006-03-16

Family

ID=25199922

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60204292T Expired - Lifetime DE60204292T2 (de) 2001-03-15 2002-02-21 Automatisches überwachungsystem für einen patient und seinen krankenpfleger

Country Status (7)

Country Link
US (1) US6968294B2 (de)
EP (1) EP1371042B1 (de)
JP (1) JP2004531800A (de)
KR (1) KR20030001504A (de)
AT (1) ATE296473T1 (de)
DE (1) DE60204292T2 (de)
WO (1) WO2002075687A2 (de)

Families Citing this family (297)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8823512B2 (en) 1997-01-09 2014-09-02 Donald Spector Sensor with remote communications capability
US8542087B1 (en) * 1997-01-09 2013-09-24 Donald Spector Combined audio/video monitor and light box assembly
US6175752B1 (en) 1998-04-30 2001-01-16 Therasense, Inc. Analyte monitoring device and methods of use
US8465425B2 (en) 1998-04-30 2013-06-18 Abbott Diabetes Care Inc. Analyte monitoring device and methods of use
US6949816B2 (en) 2003-04-21 2005-09-27 Motorola, Inc. Semiconductor component having first surface area for electrically coupling to a semiconductor chip and second surface area for electrically coupling to a substrate, and method of manufacturing same
US8346337B2 (en) 1998-04-30 2013-01-01 Abbott Diabetes Care Inc. Analyte monitoring device and methods of use
US8688188B2 (en) 1998-04-30 2014-04-01 Abbott Diabetes Care Inc. Analyte monitoring device and methods of use
US8480580B2 (en) 1998-04-30 2013-07-09 Abbott Diabetes Care Inc. Analyte monitoring device and methods of use
US9066695B2 (en) 1998-04-30 2015-06-30 Abbott Diabetes Care Inc. Analyte monitoring device and methods of use
US8974386B2 (en) 1998-04-30 2015-03-10 Abbott Diabetes Care Inc. Analyte monitoring device and methods of use
US6560471B1 (en) 2001-01-02 2003-05-06 Therasense, Inc. Analyte monitoring device and methods of use
WO2002078512A2 (en) 2001-04-02 2002-10-10 Therasense, Inc. Blood glucose tracking apparatus and methods
WO2004030532A1 (en) 2002-10-03 2004-04-15 The University Of Queensland Method and apparatus for assessing psychiatric or physical disorders
US7381184B2 (en) 2002-11-05 2008-06-03 Abbott Diabetes Care Inc. Sensor inserter assembly
US20040116102A1 (en) * 2002-12-17 2004-06-17 International Business Machines Corporation Heuristics for behavior based life support services
US7811231B2 (en) 2002-12-31 2010-10-12 Abbott Diabetes Care Inc. Continuous glucose monitoring system and methods of use
US7475059B2 (en) 2003-02-13 2009-01-06 Sap Ag Adapting business objects for searches and searching adapted business objects
US20040186813A1 (en) * 2003-02-26 2004-09-23 Tedesco Daniel E. Image analysis method and apparatus in a network that is structured with multiple layers and differentially weighted neurons
US7292723B2 (en) * 2003-02-26 2007-11-06 Walker Digital, Llc System for image analysis in a network that is structured with multiple layers and differentially weighted neurons
US7587287B2 (en) 2003-04-04 2009-09-08 Abbott Diabetes Care Inc. Method and system for transferring analyte test data
JP3779696B2 (ja) * 2003-04-28 2006-05-31 株式会社東芝 電子機器と移動機器とを含むシステム、およびサービス提供方法
US8066639B2 (en) 2003-06-10 2011-11-29 Abbott Diabetes Care Inc. Glucose measuring device for use in personal area network
JP4311111B2 (ja) * 2003-07-08 2009-08-12 日本ビクター株式会社 メール送信機能付き映像監視装置
US20190357827A1 (en) 2003-08-01 2019-11-28 Dexcom, Inc. Analyte sensor
JP3829829B2 (ja) * 2003-08-06 2006-10-04 コニカミノルタホールディングス株式会社 制御装置、プログラム及び制御方法
US8775443B2 (en) * 2003-08-07 2014-07-08 Sap Ag Ranking of business objects for search engines
US7920906B2 (en) 2005-03-10 2011-04-05 Dexcom, Inc. System and methods for processing analyte sensor data for sensor calibration
US7154389B2 (en) * 2003-10-30 2006-12-26 Cosco Management, Inc. Monitor for sensing and transmitting sounds in a baby's vicinity
US7299082B2 (en) 2003-10-31 2007-11-20 Abbott Diabetes Care, Inc. Method of calibrating an analyte-measurement device, and associated methods, devices and systems
USD914881S1 (en) 2003-11-05 2021-03-30 Abbott Diabetes Care Inc. Analyte sensor electronic mount
US8589174B2 (en) * 2003-12-16 2013-11-19 Adventium Enterprises Activity monitoring
WO2005089103A2 (en) 2004-02-17 2005-09-29 Therasense, Inc. Method and system for providing data communication in continuous glucose monitoring and management system
US20060008058A1 (en) * 2004-04-29 2006-01-12 Jui-Lin Dai Remote wellness monitoring and communication
US7248171B2 (en) 2004-05-17 2007-07-24 Mishelevich David J RFID systems for automatically triggering and delivering stimuli
US20060010098A1 (en) 2004-06-04 2006-01-12 Goodnow Timothy T Diabetes care host-client architecture and data management system
US20060020192A1 (en) 2004-07-13 2006-01-26 Dexcom, Inc. Transcutaneous analyte sensor
US9779750B2 (en) * 2004-07-30 2017-10-03 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US9704502B2 (en) 2004-07-30 2017-07-11 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US7562121B2 (en) 2004-08-04 2009-07-14 Kimberco, Inc. Computer-automated system and method of assessing the orientation, awareness and responses of a person with reduced capacity
US9240188B2 (en) 2004-09-16 2016-01-19 Lena Foundation System and method for expressive language, developmental disorder, and emotion assessment
US10223934B2 (en) 2004-09-16 2019-03-05 Lena Foundation Systems and methods for expressive language, developmental disorder, and emotion assessment, and contextual feedback
JP4794846B2 (ja) * 2004-10-27 2011-10-19 キヤノン株式会社 推定装置、及び推定方法
US7731657B2 (en) 2005-08-30 2010-06-08 Abbott Diabetes Care Inc. Analyte sensor introducer and methods of use
US8571624B2 (en) 2004-12-29 2013-10-29 Abbott Diabetes Care Inc. Method and apparatus for mounting a data transmission device in a communication system
US8613703B2 (en) 2007-05-31 2013-12-24 Abbott Diabetes Care Inc. Insertion devices and methods
US7883464B2 (en) 2005-09-30 2011-02-08 Abbott Diabetes Care Inc. Integrated transmitter unit and sensor introducer mechanism and methods of use
US9636450B2 (en) 2007-02-19 2017-05-02 Udo Hoss Pump system modular components for delivering medication and analyte sensing at seperate insertion sites
US7697967B2 (en) 2005-12-28 2010-04-13 Abbott Diabetes Care Inc. Method and apparatus for providing analyte sensor insertion
US8512243B2 (en) 2005-09-30 2013-08-20 Abbott Diabetes Care Inc. Integrated introducer and transmitter assembly and methods of use
US20090105569A1 (en) 2006-04-28 2009-04-23 Abbott Diabetes Care, Inc. Introducer Assembly and Methods of Use
US9788771B2 (en) 2006-10-23 2017-10-17 Abbott Diabetes Care Inc. Variable speed sensor insertion devices and methods of use
US8029441B2 (en) 2006-02-28 2011-10-04 Abbott Diabetes Care Inc. Analyte sensor transmitter unit configuration for a data monitoring and management system
US9743862B2 (en) 2011-03-31 2017-08-29 Abbott Diabetes Care Inc. Systems and methods for transcutaneously implanting medical devices
US9398882B2 (en) 2005-09-30 2016-07-26 Abbott Diabetes Care Inc. Method and apparatus for providing analyte sensor and data processing device
US10226207B2 (en) 2004-12-29 2019-03-12 Abbott Diabetes Care Inc. Sensor inserter having introducer
US9259175B2 (en) 2006-10-23 2016-02-16 Abbott Diabetes Care, Inc. Flexible patch for fluid delivery and monitoring body analytes
US8333714B2 (en) 2006-09-10 2012-12-18 Abbott Diabetes Care Inc. Method and system for providing an integrated analyte sensor insertion device and data processing unit
US9351669B2 (en) 2009-09-30 2016-05-31 Abbott Diabetes Care Inc. Interconnect for on-body analyte monitoring device
US9572534B2 (en) 2010-06-29 2017-02-21 Abbott Diabetes Care Inc. Devices, systems and methods for on-skin or on-body mounting of medical devices
US8112240B2 (en) 2005-04-29 2012-02-07 Abbott Diabetes Care Inc. Method and apparatus for providing leak detection in data monitoring and management systems
US20060282021A1 (en) * 2005-05-03 2006-12-14 Devaul Richard W Method and system for fall detection and motion analysis
US7827011B2 (en) * 2005-05-03 2010-11-02 Aware, Inc. Method and system for real-time signal classification
US20060260624A1 (en) * 2005-05-17 2006-11-23 Battelle Memorial Institute Method, program, and system for automatic profiling of entities
KR100719240B1 (ko) * 2005-05-25 2007-05-17 (주)실비토스 거주자 관리서비스 제공방법, 거주자 관리서비스에사용되는 시스템 및 거주자 관리서비스 제공방법을실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는매체
CN101365374B (zh) 2005-08-31 2011-11-16 弗吉尼亚大学专利基金委员会 改善连续式葡萄糖传感器的准确度
US7277823B2 (en) * 2005-09-26 2007-10-02 Lockheed Martin Corporation Method and system of monitoring and prognostics
US8688804B2 (en) * 2005-09-26 2014-04-01 Samsung Electronics Co., Ltd. Apparatus and method for transmitting sound information in web-based control system
US8880138B2 (en) 2005-09-30 2014-11-04 Abbott Diabetes Care Inc. Device for channeling fluid and methods of use
US9521968B2 (en) 2005-09-30 2016-12-20 Abbott Diabetes Care Inc. Analyte sensor retention mechanism and methods of use
US7766829B2 (en) 2005-11-04 2010-08-03 Abbott Diabetes Care Inc. Method and system for providing basal profile modification in analyte monitoring and management systems
US20080021731A1 (en) * 2005-12-09 2008-01-24 Valence Broadband, Inc. Methods and systems for monitoring patient support exiting and initiating response
US7786874B2 (en) 2005-12-09 2010-08-31 Samarion, Inc. Methods for refining patient, staff and visitor profiles used in monitoring quality and performance at a healthcare facility
US7911348B2 (en) * 2005-12-09 2011-03-22 Bee Cave, LLC. Methods for refining patient, staff and visitor profiles used in monitoring quality and performance at a healthcare facility
US7761310B2 (en) * 2005-12-09 2010-07-20 Samarion, Inc. Methods and systems for monitoring quality and performance at a healthcare facility
US20070132597A1 (en) * 2005-12-09 2007-06-14 Valence Broadband, Inc. Methods and systems for monitoring patient support exiting and initiating response
US11298058B2 (en) 2005-12-28 2022-04-12 Abbott Diabetes Care Inc. Method and apparatus for providing analyte sensor insertion
EP1968432A4 (de) 2005-12-28 2009-10-21 Abbott Diabetes Care Inc Einführung eines medizinischen gerätes
US7736310B2 (en) 2006-01-30 2010-06-15 Abbott Diabetes Care Inc. On-body medical device securement
US7885698B2 (en) 2006-02-28 2011-02-08 Abbott Diabetes Care Inc. Method and system for providing continuous calibration of implantable analyte sensors
US7826879B2 (en) 2006-02-28 2010-11-02 Abbott Diabetes Care Inc. Analyte sensors and methods of use
US8374668B1 (en) 2007-10-23 2013-02-12 Abbott Diabetes Care Inc. Analyte sensor with lag compensation
US8140312B2 (en) 2007-05-14 2012-03-20 Abbott Diabetes Care Inc. Method and system for determining analyte levels
US7630748B2 (en) 2006-10-25 2009-12-08 Abbott Diabetes Care Inc. Method and system for providing analyte monitoring
US8226891B2 (en) 2006-03-31 2012-07-24 Abbott Diabetes Care Inc. Analyte monitoring devices and methods therefor
US7618369B2 (en) 2006-10-02 2009-11-17 Abbott Diabetes Care Inc. Method and system for dynamically updating calibration parameters for an analyte sensor
US8473022B2 (en) 2008-01-31 2013-06-25 Abbott Diabetes Care Inc. Analyte sensor with time lag compensation
US8478557B2 (en) 2009-07-31 2013-07-02 Abbott Diabetes Care Inc. Method and apparatus for providing analyte monitoring system calibration accuracy
US8224415B2 (en) 2009-01-29 2012-07-17 Abbott Diabetes Care Inc. Method and device for providing offset model based calibration for analyte sensor
US7620438B2 (en) 2006-03-31 2009-11-17 Abbott Diabetes Care Inc. Method and system for powering an electronic device
US9675290B2 (en) 2012-10-30 2017-06-13 Abbott Diabetes Care Inc. Sensitivity calibration of in vivo sensors used to measure analyte concentration
US7801582B2 (en) 2006-03-31 2010-09-21 Abbott Diabetes Care Inc. Analyte monitoring and management system and methods therefor
US9392969B2 (en) 2008-08-31 2016-07-19 Abbott Diabetes Care Inc. Closed loop control and signal attenuation detection
US8219173B2 (en) 2008-09-30 2012-07-10 Abbott Diabetes Care Inc. Optimizing analyte sensor calibration
US9326709B2 (en) 2010-03-10 2016-05-03 Abbott Diabetes Care Inc. Systems, devices and methods for managing glucose levels
US7653425B2 (en) 2006-08-09 2010-01-26 Abbott Diabetes Care Inc. Method and system for providing calibration of an analyte sensor in an analyte monitoring system
US8346335B2 (en) 2008-03-28 2013-01-01 Abbott Diabetes Care Inc. Analyte sensor calibration management
US20080071158A1 (en) 2006-06-07 2008-03-20 Abbott Diabetes Care, Inc. Analyte monitoring system and method
US20080033752A1 (en) * 2006-08-04 2008-02-07 Valence Broadband, Inc. Methods and systems for monitoring staff/patient contacts and ratios
KR100778116B1 (ko) * 2006-10-02 2007-11-21 삼성전자주식회사 움직임벡터 보정장치 및 보정방법
US7733233B2 (en) * 2006-10-24 2010-06-08 Kimberly-Clark Worldwide, Inc. Methods and systems for monitoring position and movement of human beings
CN102772212A (zh) 2006-10-26 2012-11-14 雅培糖尿病护理公司 检测被分析物传感器中的信号衰减的方法、设备和系统
US20080150730A1 (en) * 2006-12-20 2008-06-26 Cheung-Hwa Hsu Infant remote monitoring system
US20080199894A1 (en) 2007-02-15 2008-08-21 Abbott Diabetes Care, Inc. Device and method for automatic data acquisition and/or detection
US8121857B2 (en) 2007-02-15 2012-02-21 Abbott Diabetes Care Inc. Device and method for automatic data acquisition and/or detection
US8930203B2 (en) 2007-02-18 2015-01-06 Abbott Diabetes Care Inc. Multi-function analyte test device and methods therefor
US8732188B2 (en) 2007-02-18 2014-05-20 Abbott Diabetes Care Inc. Method and system for providing contextual based medication dosage determination
US8123686B2 (en) 2007-03-01 2012-02-28 Abbott Diabetes Care Inc. Method and apparatus for providing rolling data in communication systems
US20080262381A1 (en) * 2007-04-12 2008-10-23 Magneto Inertial Sensing Technology, Inc. Infant SID Monitor Based On Accelerometer
WO2008128210A1 (en) 2007-04-14 2008-10-23 Abbott Diabetes Care, Inc. Method and apparatus for providing data processing and control in medical communication system
CA2683721C (en) 2007-04-14 2017-05-23 Abbott Diabetes Care Inc. Method and apparatus for providing dynamic multi-stage signal amplification in a medical device
CA2683953C (en) 2007-04-14 2016-08-02 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in medical communication system
CA2683962C (en) 2007-04-14 2017-06-06 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in medical communication system
EP2146624B1 (de) 2007-04-14 2020-03-25 Abbott Diabetes Care Inc. Verfahren und vorrichtung zur datenverarbeitung und steuerung in einem medizinischen kommunikationssystem
WO2009096992A1 (en) 2007-04-14 2009-08-06 Abbott Diabetes Care, Inc. Method and apparatus for providing data processing and control in medical communication system
US8456301B2 (en) 2007-05-08 2013-06-04 Abbott Diabetes Care Inc. Analyte monitoring system and methods
US7928850B2 (en) 2007-05-08 2011-04-19 Abbott Diabetes Care Inc. Analyte monitoring system and methods
US8461985B2 (en) 2007-05-08 2013-06-11 Abbott Diabetes Care Inc. Analyte monitoring system and methods
US8665091B2 (en) 2007-05-08 2014-03-04 Abbott Diabetes Care Inc. Method and device for determining elapsed sensor life
US7595815B2 (en) * 2007-05-08 2009-09-29 Kd Secure, Llc Apparatus, methods, and systems for intelligent security and safety
US7996158B2 (en) 2007-05-14 2011-08-09 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US8260558B2 (en) 2007-05-14 2012-09-04 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US9125548B2 (en) 2007-05-14 2015-09-08 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US8560038B2 (en) 2007-05-14 2013-10-15 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US8600681B2 (en) 2007-05-14 2013-12-03 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US8103471B2 (en) 2007-05-14 2012-01-24 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US10002233B2 (en) 2007-05-14 2018-06-19 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US8444560B2 (en) 2007-05-14 2013-05-21 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US8239166B2 (en) 2007-05-14 2012-08-07 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US20080282988A1 (en) * 2007-05-14 2008-11-20 Carl Bloksberg Pet entertainment system
US8831299B2 (en) 2007-05-22 2014-09-09 Intellectual Ventures Fund 83 Llc Capturing data for individual physiological monitoring
US20080294012A1 (en) * 2007-05-22 2008-11-27 Kurtz Andrew F Monitoring physiological conditions
US8038615B2 (en) * 2007-05-22 2011-10-18 Eastman Kodak Company Inferring wellness from physiological conditions data
US20080294018A1 (en) * 2007-05-22 2008-11-27 Kurtz Andrew F Privacy management for well-being monitoring
US8038614B2 (en) * 2007-05-22 2011-10-18 Eastman Kodak Company Establishing baseline data for physiological monitoring system
US7972266B2 (en) * 2007-05-22 2011-07-05 Eastman Kodak Company Image data normalization for a monitoring system
CN101686804B (zh) 2007-06-21 2013-05-08 雅培糖尿病护理公司 健康监控器
AU2008265541B2 (en) 2007-06-21 2014-07-17 Abbott Diabetes Care, Inc. Health management devices and methods
US8160900B2 (en) 2007-06-29 2012-04-17 Abbott Diabetes Care Inc. Analyte monitoring and management device and method to analyze the frequency of user interaction with the device
US7768386B2 (en) 2007-07-31 2010-08-03 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US8834366B2 (en) 2007-07-31 2014-09-16 Abbott Diabetes Care Inc. Method and apparatus for providing analyte sensor calibration
US20090044334A1 (en) * 2007-08-13 2009-02-19 Valence Broadband, Inc. Automatically adjusting patient platform support height in response to patient related events
US20090044332A1 (en) * 2007-08-13 2009-02-19 Valence Broadband, Inc. Height adjustable patient support platforms
US7382244B1 (en) 2007-10-04 2008-06-03 Kd Secure Video surveillance, storage, and alerting system having network management, hierarchical data storage, video tip processing, and vehicle plate analysis
US8013738B2 (en) * 2007-10-04 2011-09-06 Kd Secure, Llc Hierarchical storage manager (HSM) for intelligent storage of large volumes of data
US8216138B1 (en) 2007-10-23 2012-07-10 Abbott Diabetes Care Inc. Correlation of alternative site blood and interstitial fluid glucose concentrations to venous glucose concentration
US8377031B2 (en) 2007-10-23 2013-02-19 Abbott Diabetes Care Inc. Closed loop control system with safety parameters and methods
US8409093B2 (en) 2007-10-23 2013-04-02 Abbott Diabetes Care Inc. Assessing measures of glycemic variability
WO2009061936A1 (en) 2007-11-06 2009-05-14 Three H Corporation Method and system for safety monitoring
US7987069B2 (en) 2007-11-12 2011-07-26 Bee Cave, Llc Monitoring patient support exiting and initiating response
US20090287120A1 (en) 2007-12-18 2009-11-19 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Circulatory monitoring systems and methods
US8636670B2 (en) 2008-05-13 2014-01-28 The Invention Science Fund I, Llc Circulatory monitoring systems and methods
US9717896B2 (en) 2007-12-18 2017-08-01 Gearbox, Llc Treatment indications informed by a priori implant information
US20090164239A1 (en) 2007-12-19 2009-06-25 Abbott Diabetes Care, Inc. Dynamic Display Of Glucose Information
US20090189771A1 (en) * 2008-01-28 2009-07-30 Chia-Lun Liu Smart care system
US7978085B1 (en) 2008-02-29 2011-07-12 University Of South Florida Human and physical asset movement pattern analyzer
JP5079549B2 (ja) * 2008-03-03 2012-11-21 パナソニック株式会社 撮像装置および撮像装置本体
EP3659628A1 (de) 2008-04-10 2020-06-03 Abbott Diabetes Care, Inc. Verfahren und system zur sterilisierung eines analytsensors
US8591410B2 (en) 2008-05-30 2013-11-26 Abbott Diabetes Care Inc. Method and apparatus for providing glycemic control
US7826382B2 (en) 2008-05-30 2010-11-02 Abbott Diabetes Care Inc. Close proximity communication device and methods
US8924159B2 (en) 2008-05-30 2014-12-30 Abbott Diabetes Care Inc. Method and apparatus for providing glycemic control
US8876755B2 (en) 2008-07-14 2014-11-04 Abbott Diabetes Care Inc. Closed loop control system interface and methods
US8094009B2 (en) 2008-08-27 2012-01-10 The Invention Science Fund I, Llc Health-related signaling via wearable items
US8125331B2 (en) 2008-08-27 2012-02-28 The Invention Science Fund I, Llc Health-related signaling via wearable items
US8130095B2 (en) 2008-08-27 2012-03-06 The Invention Science Fund I, Llc Health-related signaling via wearable items
US8284046B2 (en) 2008-08-27 2012-10-09 The Invention Science Fund I, Llc Health-related signaling via wearable items
US8734422B2 (en) 2008-08-31 2014-05-27 Abbott Diabetes Care Inc. Closed loop control with improved alarm functions
US20100057040A1 (en) 2008-08-31 2010-03-04 Abbott Diabetes Care, Inc. Robust Closed Loop Control And Methods
US9943644B2 (en) 2008-08-31 2018-04-17 Abbott Diabetes Care Inc. Closed loop control with reference measurement and methods thereof
US8622988B2 (en) 2008-08-31 2014-01-07 Abbott Diabetes Care Inc. Variable rate closed loop control and methods
US8986208B2 (en) 2008-09-30 2015-03-24 Abbott Diabetes Care Inc. Analyte sensor sensitivity attenuation mitigation
US9326707B2 (en) 2008-11-10 2016-05-03 Abbott Diabetes Care Inc. Alarm characterization for analyte monitoring devices and systems
US8749392B2 (en) 2008-12-30 2014-06-10 Oneevent Technologies, Inc. Evacuation system
WO2010084495A1 (en) * 2009-01-23 2010-07-29 Aser Rich Limited. Remote babysitting monitor
US8103456B2 (en) 2009-01-29 2012-01-24 Abbott Diabetes Care Inc. Method and device for early signal attenuation detection using blood glucose measurements
US9402544B2 (en) 2009-02-03 2016-08-02 Abbott Diabetes Care Inc. Analyte sensor and apparatus for insertion of the sensor
US9799205B2 (en) 2013-07-15 2017-10-24 Oneevent Technologies, Inc. Owner controlled evacuation system with notification and route guidance provided by a user device
US8077027B2 (en) * 2009-02-27 2011-12-13 Tyco Safety Products Canada Ltd. System and method for analyzing faulty event transmissions
US20100225488A1 (en) * 2009-03-06 2010-09-09 Telehealth Sensors, Llc Patient Monitoring System Using an Active Mattress or Chair System
US20100228516A1 (en) * 2009-03-06 2010-09-09 Telehealth Sensors, Llc Electronic mattress or chair sensor for patient monitoring
US8081083B2 (en) * 2009-03-06 2011-12-20 Telehealth Sensors Llc Mattress or chair sensor envelope with an antenna
US8497777B2 (en) 2009-04-15 2013-07-30 Abbott Diabetes Care Inc. Analyte monitoring system having an alert
EP2419015A4 (de) 2009-04-16 2014-08-20 Abbott Diabetes Care Inc Kalibrierung eines analytsensors
WO2010127050A1 (en) 2009-04-28 2010-11-04 Abbott Diabetes Care Inc. Error detection in critical repeating data in a wireless sensor system
WO2010127187A1 (en) 2009-04-29 2010-11-04 Abbott Diabetes Care Inc. Method and system for providing data communication in continuous glucose monitoring and management system
EP2425209A4 (de) 2009-04-29 2013-01-09 Abbott Diabetes Care Inc Verfahren und system für die echtzeit-kalibrierung eines analytsensors mit rückwirkender füllung
WO2010138856A1 (en) 2009-05-29 2010-12-02 Abbott Diabetes Care Inc. Medical device antenna systems having external antenna configurations
US8613892B2 (en) 2009-06-30 2013-12-24 Abbott Diabetes Care Inc. Analyte meter with a moveable head and methods of using the same
US20110172550A1 (en) 2009-07-21 2011-07-14 Michael Scott Martin Uspa: systems and methods for ems device communication interface
LT3689237T (lt) 2009-07-23 2021-09-27 Abbott Diabetes Care, Inc. Nuolatinio analitės matavimo sistema ir gamybos būdas
EP2473099A4 (de) 2009-08-31 2015-01-14 Abbott Diabetes Care Inc Analytüberwachungssystem und -verfahren zur leistungs- und rauschverwaltung
JP5795584B2 (ja) 2009-08-31 2015-10-14 アボット ダイアベティス ケア インコーポレイテッドAbbott Diabetes Care Inc. 医療用装置
US9314195B2 (en) 2009-08-31 2016-04-19 Abbott Diabetes Care Inc. Analyte signal processing device and methods
DK3988470T3 (da) 2009-08-31 2023-08-28 Abbott Diabetes Care Inc Visningsindretninger til en medicinsk indretning
WO2011041469A1 (en) 2009-09-29 2011-04-07 Abbott Diabetes Care Inc. Method and apparatus for providing notification function in analyte monitoring systems
US20110105919A1 (en) * 2009-10-30 2011-05-05 Mohammed Naji Medical device
US8185181B2 (en) 2009-10-30 2012-05-22 Abbott Diabetes Care Inc. Method and apparatus for detecting false hypoglycemic conditions
USD924406S1 (en) 2010-02-01 2021-07-06 Abbott Diabetes Care Inc. Analyte sensor inserter
JP5904500B2 (ja) 2010-03-24 2016-04-13 アボット ダイアベティス ケア インコーポレイテッドAbbott Diabetes Care Inc. 鋭利部材を皮膚の表面下に挿入する装置およびシステム
CN106570307B (zh) 2010-04-09 2020-01-07 卓尔医学产品公司 用于流化来自除纤颤器的病人信息的系统和方法
US8635046B2 (en) 2010-06-23 2014-01-21 Abbott Diabetes Care Inc. Method and system for evaluating analyte sensor response characteristics
US10092229B2 (en) 2010-06-29 2018-10-09 Abbott Diabetes Care Inc. Calibration of analyte measurement system
US11064921B2 (en) 2010-06-29 2021-07-20 Abbott Diabetes Care Inc. Devices, systems and methods for on-skin or on-body mounting of medical devices
US8620625B2 (en) 2010-07-30 2013-12-31 Hill-Rom Services, Inc. Above bed sensor
EP2619724A2 (de) 2010-09-23 2013-07-31 Stryker Corporation Videoüberwachungssystem
US11213226B2 (en) 2010-10-07 2022-01-04 Abbott Diabetes Care Inc. Analyte monitoring devices and methods
US20120116252A1 (en) * 2010-10-13 2012-05-10 The Regents Of The University Of Colorado, A Body Corporate Systems and methods for detecting body orientation or posture
US8907287B2 (en) * 2010-12-01 2014-12-09 Hill-Rom Services, Inc. Patient monitoring system
US9165334B2 (en) * 2010-12-28 2015-10-20 Pet Check Technology Llc Pet and people care management system
EP2680754B1 (de) 2011-02-28 2019-04-24 Abbott Diabetes Care, Inc. Vorrichtungen, systeme und verfahren im zusammenhang mit analytüberwachungsvorrichtungen und vorrichtungen damit
US10136845B2 (en) 2011-02-28 2018-11-27 Abbott Diabetes Care Inc. Devices, systems, and methods associated with analyte monitoring devices and devices incorporating the same
DK3575796T3 (da) 2011-04-15 2021-01-18 Dexcom Inc Avanceret analytsensorkalibrering og fejldetektion
US20130031001A1 (en) * 2011-07-26 2013-01-31 Stephen Patrick Frechette Method and System for the Location-Based Discovery and Validated Payment of a Service Provider
US8599009B2 (en) 2011-08-16 2013-12-03 Elwha Llc Systematic distillation of status data relating to regimen compliance
US9622691B2 (en) 2011-10-31 2017-04-18 Abbott Diabetes Care Inc. Model based variable risk false glucose threshold alarm prevention mechanism
US9069536B2 (en) 2011-10-31 2015-06-30 Abbott Diabetes Care Inc. Electronic devices having integrated reset systems and methods thereof
WO2013070794A2 (en) 2011-11-07 2013-05-16 Abbott Diabetes Care Inc. Analyte monitoring device and methods
US20140266693A1 (en) * 2011-11-14 2014-09-18 University Of Technology, Sydney Monitoring a person
US8710993B2 (en) 2011-11-23 2014-04-29 Abbott Diabetes Care Inc. Mitigating single point failure of devices in an analyte monitoring system and methods thereof
US9317656B2 (en) 2011-11-23 2016-04-19 Abbott Diabetes Care Inc. Compatibility mechanisms for devices in a continuous analyte monitoring system and methods thereof
WO2013078426A2 (en) 2011-11-25 2013-05-30 Abbott Diabetes Care Inc. Analyte monitoring system and methods of use
US9402570B2 (en) 2011-12-11 2016-08-02 Abbott Diabetes Care Inc. Analyte sensor devices, connections, and methods
US9084058B2 (en) * 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
US9295390B2 (en) 2012-03-02 2016-03-29 Hill-Rom Services, Inc. Facial recognition based monitoring systems and methods
TWI474315B (zh) * 2012-05-25 2015-02-21 Univ Nat Taiwan Normal Infant cries analysis method and system
JP6093124B2 (ja) * 2012-07-26 2017-03-08 HybridMom株式会社 監督システム
EP2890297B1 (de) 2012-08-30 2018-04-11 Abbott Diabetes Care, Inc. Ausfallerkennung bei kontinuierlichen analytüberwachungsdaten bei datenabweichungen
US9968306B2 (en) 2012-09-17 2018-05-15 Abbott Diabetes Care Inc. Methods and apparatuses for providing adverse condition notification with enhanced wireless communication range in analyte monitoring systems
EP2901153A4 (de) 2012-09-26 2016-04-27 Abbott Diabetes Care Inc Verfahren und vorrichtung zur verbesserung einer verzögerungskorrekturfunktion während der in-vivo-messung einer analytkonzentration mit analytkonzentrationsvariabilität und bereichsdaten
US9911166B2 (en) 2012-09-28 2018-03-06 Zoll Medical Corporation Systems and methods for three-dimensional interaction monitoring in an EMS environment
JP6134925B2 (ja) * 2013-02-27 2017-05-31 学校法人同志社 在宅支援システム
USD732558S1 (en) 2013-03-11 2015-06-23 Arris Technology, Inc. Display screen with graphical user interface
US10076285B2 (en) 2013-03-15 2018-09-18 Abbott Diabetes Care Inc. Sensor fault detection using analyte sensor data pattern comparison
US10433773B1 (en) 2013-03-15 2019-10-08 Abbott Diabetes Care Inc. Noise rejection methods and apparatus for sparsely sampled analyte sensor data
US9474475B1 (en) 2013-03-15 2016-10-25 Abbott Diabetes Care Inc. Multi-rate analyte sensor data collection with sample rate configurable signal processing
KR101331195B1 (ko) 2013-05-24 2013-11-19 주식회사 이도링크 사생활보호형 감시시스템
US20150105608A1 (en) * 2013-10-14 2015-04-16 Rest Devices, Inc. Infant Sleeping Aid and Infant-Bed Accessory
US20150154880A1 (en) * 2013-12-02 2015-06-04 Aetna Inc. Healthcare management with a support network
US11229382B2 (en) 2013-12-31 2022-01-25 Abbott Diabetes Care Inc. Self-powered analyte sensor and devices using the same
US10067341B1 (en) * 2014-02-04 2018-09-04 Intelligent Technologies International, Inc. Enhanced heads-up display system
EP3865063A1 (de) 2014-03-30 2021-08-18 Abbott Diabetes Care, Inc. Verfahren und vorrichtung zur bestimmung des starts einer mahlzeit und von spitzenwertereignissen in analytüberwachungssystemen
US10318123B2 (en) 2014-03-31 2019-06-11 Elwha Llc Quantified-self machines, circuits and interfaces reflexively related to food fabricator machines and circuits
US10127361B2 (en) 2014-03-31 2018-11-13 Elwha Llc Quantified-self machines and circuits reflexively related to kiosk systems and associated food-and-nutrition machines and circuits
US20150278481A1 (en) * 2014-03-31 2015-10-01 Elwha Llc Quantified-Self Machines and Circuits Reflexively Related to Big-Data Analytics Systems and Associated Food-and-Nutrition Machines and Circuits
US9311804B2 (en) 2014-04-11 2016-04-12 Hill-Rom Services, Inc. Patient-need prediction system
US9635044B2 (en) * 2014-06-02 2017-04-25 Bastille Networks, Inc. Electromagnetic persona generation based on radio frequency fingerprints
US9642340B2 (en) 2014-07-16 2017-05-09 Elwha Llc Remote pet monitoring systems and methods
CH710525A1 (de) * 2014-12-19 2016-06-30 Bkw Energie Ag Gerät zur Erfassung einer Umgebung und zur lnteraktion mit einem Benutzer.
US20160287073A1 (en) * 2015-04-05 2016-10-06 Smilables Inc. Infant monitoring hub
US9558642B2 (en) * 2015-04-21 2017-01-31 Vivint, Inc. Sleep state monitoring
US10674944B2 (en) 2015-05-14 2020-06-09 Abbott Diabetes Care Inc. Compact medical device inserters and related systems and methods
US10213139B2 (en) 2015-05-14 2019-02-26 Abbott Diabetes Care Inc. Systems, devices, and methods for assembling an applicator and sensor control device
US10789939B2 (en) 2015-06-25 2020-09-29 The University Of Chicago Wearable word counter
US10134424B2 (en) 2015-06-25 2018-11-20 VersaMe, Inc. Wearable word counter
US10959648B2 (en) 2015-06-25 2021-03-30 The University Of Chicago Wearable word counter
CN113349766A (zh) 2015-07-10 2021-09-07 雅培糖尿病护理公司 对于生理参数进行动态葡萄糖曲线响应的系统、装置和方法
PT3355761T (pt) * 2015-09-30 2021-05-27 Centro Studi S R L Sistema de estimação de estados emocionais/comportamentais/psicológicos
US10115029B1 (en) * 2015-10-13 2018-10-30 Ambarella, Inc. Automobile video camera for the detection of children, people or pets left in a vehicle
US9899035B2 (en) * 2015-11-04 2018-02-20 Ioannis Kakadiaris Systems for and methods of intelligent acoustic monitoring
US9640057B1 (en) 2015-11-23 2017-05-02 MedHab, LLC Personal fall detection system and method
US10185766B2 (en) 2016-01-15 2019-01-22 Google Llc Systems and methods for monitoring objects and their states by using acoustic signals
US10209690B2 (en) 2016-01-15 2019-02-19 Google Llc Systems and methods for provisioning devices using acoustic signals
US9858789B2 (en) 2016-01-19 2018-01-02 Vivint, Inc. Occupancy-targeted baby monitoring
JP6812772B2 (ja) * 2016-12-09 2021-01-13 富士ゼロックス株式会社 監視装置及びプログラム
US11071478B2 (en) 2017-01-23 2021-07-27 Abbott Diabetes Care Inc. Systems, devices and methods for analyte sensor insertion
US20180246964A1 (en) * 2017-02-28 2018-08-30 Lighthouse Ai, Inc. Speech interface for vision-based monitoring system
CN106710146B (zh) * 2017-03-17 2023-02-03 淮阴工学院 一种婴幼儿睡眠使用的多功能提示装置
EP3600014A4 (de) 2017-03-21 2020-10-21 Abbott Diabetes Care Inc. Verfahren, vorrichtungen und system zur bereitstellung der diagnose und therapie von diabetischen zuständen
US20180322253A1 (en) 2017-05-05 2018-11-08 International Business Machines Corporation Sensor Based Monitoring
EP4181085A1 (de) * 2017-06-30 2023-05-17 Axis AB Verfahren und system zum trainieren eines neuronalen netzes zur klassifizierung von objekten oder ereignissen
US11567726B2 (en) * 2017-07-21 2023-01-31 Google Llc Methods, systems, and media for providing information relating to detected events
US20190057189A1 (en) * 2017-08-17 2019-02-21 Innovative World Solutions, LLC Alert and Response Integration System, Device, and Process
AU2018354120A1 (en) 2017-10-24 2020-04-23 Dexcom, Inc. Pre-connected analyte sensors
US11331022B2 (en) 2017-10-24 2022-05-17 Dexcom, Inc. Pre-connected analyte sensors
JP6878260B2 (ja) * 2017-11-30 2021-05-26 パラマウントベッド株式会社 異常判定装置、プログラム
US10529357B2 (en) 2017-12-07 2020-01-07 Lena Foundation Systems and methods for automatic determination of infant cry and discrimination of cry from fussiness
GB2571125A (en) * 2018-02-19 2019-08-21 Chestnut Mobile Ltd Infant monitor apparatus
CN108536996B (zh) * 2018-03-01 2020-07-03 北京小米移动软件有限公司 自动哄睡方法、装置、存储介质及智能婴儿床
CN108335458A (zh) * 2018-03-05 2018-07-27 李孟星 一种看家看人的家用智能看管系统及其看管方法
US20200314207A1 (en) * 2019-03-26 2020-10-01 Abiomed, Inc. Dynamically Adjustable Frame Rate from Medical Device Controller
WO2020202444A1 (ja) * 2019-04-01 2020-10-08 株式会社ファーストアセント 体調検出システム
USD1002852S1 (en) 2019-06-06 2023-10-24 Abbott Diabetes Care Inc. Analyte sensor device
US11698205B2 (en) 2019-09-18 2023-07-11 Johnson Controls Tyco IP Holdings LLP Smart building level control for improving compliance of temperature, pressure, and humidity
US11852505B2 (en) 2019-09-18 2023-12-26 Johnson Controls Tyco IP Holdings LLP Critical environment monitoring system
EP3805980A1 (de) * 2019-10-11 2021-04-14 Kepler Vision Technologies B.V. System zur mitteilung einer hilfsanfrage durch nachweisen einer absicht, eine taste zu drücken, wobei das system künstliche intelligenz verwendet
WO2021122849A1 (en) * 2019-12-18 2021-06-24 Koninklijke Philips N.V. A system and method for alerting a caregiver based on the state of a person in need
EP3838127A1 (de) * 2019-12-18 2021-06-23 Koninklijke Philips N.V. Vorrichtung, system und verfahren zur überwachung einer person
CN111145476A (zh) * 2019-12-26 2020-05-12 星络智能科技有限公司 一种儿童防坠落控制方法
FR3106229B1 (fr) * 2020-01-09 2022-01-21 Kxkjm Dispositif de detection d'un comportement a risque d'au moins une personne, procede de detection et reseau de detection associes
US11501501B1 (en) 2020-06-26 2022-11-15 Gresham Smith Biometric feedback system
US11897334B2 (en) 2020-11-19 2024-02-13 Ford Global Technologies, Llc Vehicle having pet bowl communication
US11950582B2 (en) 2020-11-19 2024-04-09 Ford Global Technologies, Llc Pet bowl having integrated sensing
US20220194228A1 (en) * 2020-12-17 2022-06-23 Ford Global Technologies, Llc Vehicle having pet monitoring and related controls
USD999913S1 (en) 2020-12-21 2023-09-26 Abbott Diabetes Care Inc Analyte sensor inserter
EP4277525A1 (de) * 2021-01-18 2023-11-22 Sentercare Ltd. Überwachung von personen in einem raum
US11904794B2 (en) 2021-01-28 2024-02-20 Ford Global Technologies, Llc Pet restraint system for a vehicle
US11951878B2 (en) 2021-05-04 2024-04-09 Ford Global Technologies, Llc Vehicle having seat control based on monitored pet location
US11932156B2 (en) 2021-05-17 2024-03-19 Ford Global Technologies, Llc Vehicle having sliding console

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3948250A (en) * 1974-09-16 1976-04-06 Becton, Dickinson And Company Physiological information display
US4196425A (en) * 1978-07-10 1980-04-01 by said David S. Weekly said Clyde E. Williams Patient activity monitoring system
DE2834079B1 (de) 1978-08-03 1979-10-31 Messerschmitt Boelkow Blohm Verfahren zum automatischen Feststellen und Auswerten der AEnderungen von Bildinhalte und Einrichtung dazu
US4524243A (en) * 1983-07-07 1985-06-18 Lifeline Systems, Inc. Personal alarm system
GB2179186A (en) 1985-07-29 1987-02-25 Lifeguard Systems Limited Activity monitoring apparatus
DE3830655A1 (de) 1988-09-09 1990-03-15 Hermann Janus Personenschutzeinrichtung mit automatischem notalarm
US5012522A (en) * 1988-12-08 1991-04-30 The United States Of America As Represented By The Secretary Of The Air Force Autonomous face recognition machine
US5576972A (en) * 1992-05-08 1996-11-19 Harrison; Dana C. Intelligent area monitoring system
US5479932A (en) * 1993-08-16 1996-01-02 Higgins; Joseph Infant health monitoring system
US5462051A (en) * 1994-08-31 1995-10-31 Colin Corporation Medical communication system
US6002994A (en) * 1994-09-09 1999-12-14 Lane; Stephen S. Method of user monitoring of physiological and non-physiological measurements
US5505199A (en) * 1994-12-01 1996-04-09 Kim; Bill H. Sudden infant death syndrome monitor
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5692215A (en) * 1994-12-23 1997-11-25 Gerotech, Inc. System for generating periodic reports, generating trend analysis, and intervention in accordance with trend analysis from a detection subsystem for monitoring daily living activity
JP3177411B2 (ja) * 1995-07-26 2001-06-18 三洋電機株式会社 監視用画像記録再生装置
FR2743651B1 (fr) 1996-01-12 1998-03-20 Somfy Procede et installation de surveillance de personnes dans une habitation
US5905436A (en) * 1996-10-24 1999-05-18 Gerontological Solutions, Inc. Situation-based monitoring system
SE9604320D0 (sv) * 1996-11-25 1996-11-25 Pacesetter Ab Medical device
US6062216A (en) * 1996-12-27 2000-05-16 Children's Medical Center Corporation Sleep apnea detector system
JP4090079B2 (ja) * 1997-05-07 2008-05-28 コンピュメディクス・リミテッド 患者への気体または薬物供給の制御
US6190313B1 (en) * 1998-04-20 2001-02-20 Allen J. Hinkle Interactive health care system and method
JP3201355B2 (ja) * 1998-08-28 2001-08-20 日本電気株式会社 感情解析システム
US6049281A (en) * 1998-09-29 2000-04-11 Osterweil; Josef Method and apparatus for monitoring movements of an individual
US6160478A (en) * 1998-10-27 2000-12-12 Sarcos Lc Wireless health monitoring system
DE60016842T2 (de) * 1999-07-23 2005-05-25 Matsushita Electric Industrial Co., Ltd., Kadoma Hausgebundenes Überwachungssystem für den Gesundheitszustand
US6323761B1 (en) * 2000-06-03 2001-11-27 Sam Mog Son Vehicular security access system
US6553256B1 (en) * 2000-10-13 2003-04-22 Koninklijke Philips Electronics N.V. Method and apparatus for monitoring and treating sudden infant death syndrome

Also Published As

Publication number Publication date
ATE296473T1 (de) 2005-06-15
EP1371042B1 (de) 2005-05-25
WO2002075687A2 (en) 2002-09-26
KR20030001504A (ko) 2003-01-06
DE60204292D1 (de) 2005-06-30
US6968294B2 (en) 2005-11-22
JP2004531800A (ja) 2004-10-14
EP1371042A2 (de) 2003-12-17
US20020169583A1 (en) 2002-11-14
WO2002075687A3 (en) 2003-05-30

Similar Documents

Publication Publication Date Title
DE60204292T2 (de) Automatisches überwachungsystem für einen patient und seinen krankenpfleger
DE60208166T2 (de) Automatisches system zur überwachung von unabhängigen personen, die gelegentlich hilfe brauchen
Domènech New technologies and emerging spaces of care
CN110477925A (zh) 一种针对敬老院老人的跌倒检测与预警方法及系统
CN106162073A (zh) 通信设备
CN104464406A (zh) 一种实时互动的在线学习平台
EP0939387A1 (de) Einrichtung zur Raumüberwachung
CN109887238A (zh) 一种基于视觉和人工智能的跌倒检测系统及检测报警方法
CN112069949A (zh) 一种基于人工智能的婴儿睡眠监测系统及监测方法
CN116564561A (zh) 基于生理与情感特征的智能语音看护系统及看护方法
CN110852165A (zh) 一种基于视频的婴幼儿智能看护系统及方法
CN108810474A (zh) 一种网络摄像头监控方法及系统
EP3516636B1 (de) Audioüberwachungssystem
CN108257677A (zh) 一种智能化健康监控系统
DE112019003773T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungssystem, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm
CN212433993U (zh) 一种云教育系统
CN113408477A (zh) 一种婴儿睡眠监测系统以及方法和设备
KR102331335B1 (ko) 취약자 돌봄 로봇 및 그 제어 방법
Ahamed et al. Identification of the Onset of Dementia of Older Adults in the Age of Internet of Things
KR102603658B1 (ko) 케어시스템
CN214475038U (zh) 一种基于ai能力在校园场景的应用系统
CN210381131U (zh) 一种学校安全监控系统
Chyan Automatic monitoring system for the elderly based on internet of things
DE102010033985B4 (de) Verfahren zur unaufdringlichen Überwachung einer Person und System zur Durchführung des Verfahrens
DE10212141A1 (de) Überwachungssystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition