DE602004011408T2 - Mobiler Roboter, sowie System und Verfahren zur autonomen Navigation eines solchen Roboters - Google Patents
Mobiler Roboter, sowie System und Verfahren zur autonomen Navigation eines solchen Roboters Download PDFInfo
- Publication number
- DE602004011408T2 DE602004011408T2 DE602004011408T DE602004011408T DE602004011408T2 DE 602004011408 T2 DE602004011408 T2 DE 602004011408T2 DE 602004011408 T DE602004011408 T DE 602004011408T DE 602004011408 T DE602004011408 T DE 602004011408T DE 602004011408 T2 DE602004011408 T2 DE 602004011408T2
- Authority
- DE
- Germany
- Prior art keywords
- mobile robot
- light source
- light sources
- camera
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 40
- 239000011159 matrix material Substances 0.000 claims description 59
- 230000033001 locomotion Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims 4
- 230000008569 process Effects 0.000 description 23
- 230000000977 initiatory effect Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D3/00—Control of position or direction
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
Description
- Die vorliegende Erfindung betrifft im Allgemeinen einen mobilen Roboter sowie ein System und ein Verfahren zur autonomen Navigation von selbem und insbesondere einen mobilen Roboter sowie ein System und ein Verfahren zur autonomen Navigation von selbem, in welchem der mobile Roboter das Flackern von Licht-Quellen einer charakteristischen Matrix (Zeichenanordnung) steuert, die in einem Arbeitsabstand angeordnet ist, und der seine Position unter Verwendung von einer oder mehreren flackernden Licht-Quellen bestimmt, wodurch die autonome Navigation des mobilen Roboters ermöglicht wird.
- Im Allgemeinen sollte ein autonomer mobiler Roboter präzise seine laufende Pose erkennen und sich von seiner laufenden Position zu einer Ziel-Position (Zielort) bewegen, um sich frei über ein bestimmtes Gebiet bewegen zu können. Zu diesem Zweck wird eine bestimmte charakteristische Matrix eingesetzt, also ein Mittel zum Bereitstellen von Weltkoordinaten, um dem mobilen Roboter zu erlauben, seine derzeitige Position zu erkennen. Der mobile Roboter erkennt die charakteristische Matrix, die in einem bestimmten Arbeitsabstand angeordnet ist durch die Signalverarbeitung eines Bildes, das durch eine Kamera aufgenommen wird, und bestimmt seine derzeitige Position unter Verwendung der erkannten charakteristischen Matrix.
- Solch eine charakteristische Matrix kann konzipiert werden in verschiedenerlei Mustern. Im Allgemeinen wird ein bestimmtes geometrisches Muster, wie z. B. ein Kreis bzw. eine Kette, eingesetzt als die Form der charakteristischen Matrix.
- Dementsprechend extrahiert der mobile Roboter das bestimmte Muster einer charakteristischen Matrix aus einem Bildsignal für einen Arbeitsraum. In diesem Fall ist der Prozess zum Extrahieren des Musters der charakteristischen Matrix aus dem Bildsignal stark beeinflusst durch äußere Umweltfaktoren wie z. B. die Beleuchtung eines Arbeitsraums, der durch eine Kamera aufgenommen wird.
- Das heißt, das Erkennen des Musters der charakteristischen Matrix eines Bildes, aufgenommen durch eine Kamera, wird durch äußere Faktoren wie z. B. die Beleuchtung, die Formen der ausgeformten Objekte, die Muster von Tapeten, etc. beeinflusst. Dementsprechend wird der Betriebs-Prozess des Erkennens des Musters der charakteristischen Matrix weiter kompliziert.
- Darüber hinaus ist es, da eine relativ lange Verarbeitungszeit benötigt wird, um die Position des mobilen Roboters unter Verwendung der charakteristischen Matrix zu erkennen, aufgrund des komplizierten Betriebs-Prozesses, schwierig, dass die autonome Navigation des mobilen Roboters in Echtzeit durchgeführt wird.
- Des Weiteren ist es in der Netzwerkumgebung eines Hauses, welche entwickelt worden ist und weitgehend implementiert ist, in welchem alle Heimanwendungen gesteuert werden unter Verwendung eines mobilen Roboters, nicht wünschenswert mit Blick auf das Erscheinungsbild, ein bestimmtes Muster einer charakteristischen Matrix im Inneren eines Hauses zu installieren.
- Folglich gab es den Bedarf für einen mobilen Roboter und ein System zur autonomen Navigation des mobilen Roboters, das in der Lage ist zur autonomen Bewegung durch die Verwendung einer charakteristischen Matrix, anwendbar ist auf eine Netzwerkumgebung eines Hauses und geeignet ist für die Anwendung des tatsächlichen Lebens, aufgrund der Adaptierbarkeit an Variationen einer äußeren Umwelt, wie z. B. die Beleuchtung.
-
EP 662618 -
US 5,491,607 beschreibt ein ähnliches System, welches Schallgeräusche detektieren kann. - In einem ersten Aspekt stellt die vorliegende Erfindung einen mobilen Roboter zur Verfügung entsprechend zu Anspruch 1.
- Vorzugsweise kann der mobile Roboter des Weiteren ein Speicher-Modul zum Speichern der Weltkoordinaten der Licht-Quellen umfassen, von Raumkoordinaten des mobilen Roboters in dem Arbeitsraum und Parametern, die durch Kamera-Kalibrierung zum Kompensieren der Verzeichnung eines Objekts der Kamera-Linse berechnet werden.
- Die Kamera kann ausgerüstet sein mit einem Filter zum Filtern einer bestimmten Wellenlänge der Licht-Quelle.
- In einem zweiten Aspekt stellt die vorliegende Erfindung ein System für die autonome Navigation eines mobilen Roboters zur Verfügung, das eine charakteristische Matrix (eine Zeichenanordnung) einschließt, die eine Vielzahl von Licht-Quellen umfasst, die in einem bestimmten Bereich angeordnet sind, um selektiv zu flackern, ein Steuer-Modul der charakteristischen Matrix zum Steuern des Flackerns der Licht-Quellen der charakteristischen Matrix sowie einen mobilen Roboter, der ausgerüstet ist mit einem Pose-Berechnungs-Modul zum selektiven Steuern des Flackerns der Licht-Quellen der charakteristischen Matrix durch Übertragen eines Steuersignals einer Licht-Quelle auf das Steuer-Modul der charakteristischen Matrix und Erkennen einer Pose des mobilen Roboters unter Verwendung der flackernden Licht-Quellen.
- Darüber hinaus stellt die vorliegende Erfindung ein Verfahren zur Verfügung zur autonomen Navigation eines mobilen Roboters, das den ersten Schritt umfasst, in dem der mobile Roboter selektiv das Flackern des Flackerns der Licht-Quellen charakteristischen Matrix, angeordnet über einen bestimmten Arbeitsraum, steuert, den zweiten Schritt des Extrahierens von Bild-Koordinaten der Licht-Quellen durch Erfassen einer Licht-Quelle, die so gesteuert wird, dass sie aus einem von der Kamera eingegebenen Bildsignal flackert, und den dritten Schritt des Berechnens einer aktuellen Position des mobilen Roboters unter Bezugnahme auf die Bild-Koordinaten und die zuvor gespeicherten Weltkoordinaten der Licht-Quellen.
- Dementsprechend stellt die vorliegende Erfindung einen mobilen Roboter zur Verfügung und ein System sowie ein Verfahren zur autonomen Navigation von selbigem, in welchem der mobile Roboter seine Position bestimmen kann durch Steuern des Flackerns der Licht-Quellen des charakteristischen Arrays, angeordnet in einem Arbeitsraum und sich autonom zu einem Zielort bewegen kann, basierend auf der bestimmten Position.
- Die vorliegende Erfindung stellt des Weiteren einen mobilen Roboter zur Verfügung und ein System sowie ein Verfahren für die autonome Navigation von selbem, mit welchem der mobile Roboter in der Lage ist, in effizienter Art und Weise seine Pose (Position und Steuerkurswinkel) zu berechnen durch Auswählen einer Licht-Quelle, die geeignet ist für die Berechnung der Position unter Verweis auf die zuvor gespeicherten Weltkoordinaten der Licht-Quellen einer charakteristischen Matrix.
- Die vorliegende Erfindung stellt auch ein Mittel zur Verfügung zum Bereitstellen von Weltkoordinaten zur autonomen Navigation eines mobilen Roboters, welches eine Vielzahl von Licht-Quellen verwendet mit einer bestimmten Wellenlänge, also eine charakteristische Matrix, und so geeignet ist für eine Netzwerkumgebung zu Hause.
- Die oben genannten und weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden klarer verständlich aus der folgenden detaillierten Beschreibung, die zusammen mit den beigefügten Zeichnungen genommen wird, in welchen:
-
1 eine schematische Ansicht ist, die die Konstruktion zeigt eines Systems zur autonomen Navigation eines mobilen Roboters entsprechend einer Ausführungsform der vorliegenden Erfindung; -
2 ein Flussdiagramm ist, welches ein Verfahren zeigt zur autonomen Navigation eines mobilen Roboters entsprechend einer Ausführungsform der vorliegenden Erfindung; -
3 eine perspektivische Ansicht ist einer charakteristischen Matrix, angeordnet in einem Arbeitsraum eines mobilen Roboters entsprechend einer Ausführungsform der vorliegenden Erfindung; -
4 eine perspektivische Ansicht ist eines mobilen Roboters, der an eine bestimmte Position bewegt worden ist, entsprechend einer Ausführungsform der vorliegenden Erfindung; -
5 ein Flussdiagramm ist, welches den Prozess zeigt des Bestimmens einer ursprünglichen Position entsprechend einer Ausführungsform der vorliegenden Erfindung; und -
6 ein Flussdiagramm ist, welches den Prozess des Berechnens der Position des mobilen Roboters entsprechend einer Ausführungsform der vorliegenden Erfindung zeigt. - Nun sollte verwiesen werden auf die Zeichnungen, in welchen die gleichen Referenzziffern über die verschiedenen Zeichnungen verwendet werden, um selbige oder ähnliche Komponenten zu bezeichnen.
- Die Konstruktion sowie der Betrieb des mobilen Roboters sowie ein System und ein Verfahren zur autonomen Navigation des selben entsprechend der vorliegenden Erfindung werden beschrieben im Detail unter Verweis auf die beigefügten Zeichnungen.
- Wie in
1 gezeigt, schließt das System zur autonomen Navigation des mobilen Roboters eine charakteristische Matrix100 , ein Steuer-Modul für die charakteristische Matrix300 sowie einen mobilen Roboter500 ein. - Die charakteristische Matrix
100 besteht aus einer Vielzahl von Licht-Quellen, welche über einem bestimmten Bereich angeordnet sind und flackern können. Die Licht-Quellen werden ausgebildet aus Licht emittierenden Vorrichtungen, einschließend elektrolumineszente Vorrichtungen, wie z. B. organische elektrolumineszente Vorrichtungen, anorganisch elektrolumineszente Vorrichtungen oder Licht emittierende Dioden (LEDs Light emitting Diodes), welche Licht mit einer bestimmten Wellenlänge und einer bestimmten Helligkeit emittieren. - Inzwischen werden die Licht-Quellen jeweils mit Positions-Information umfassend eine spezifische Identifikationsziffer und Weltkoordinaten in einem Arbeitsraum, in welchem die charakteristische Matrix angeordnet ist, bestückt.
- Das Steuer-Modul für die charakteristische Matrix
300 steuert korrespondierende Licht-Quellen der charakteristischen Matrix100 , damit sie als Antwort auf das flackernde Steuersignal, übertragen von dem mobilen Roboter500 zu flackern. Das Steuer-Modul für die charakteristische Matrix300 schließt einen Anschlussknoten (AP, Access Point)301 ein, die eine der Komponentenvorrichtungen ist, die ein drahtloses lokales Flächen-Netzwerk konstituieren und das Licht-Quellen-Steuer-Signal aufnimmt und verarbeitet, das von dem mobilen Roboter500 übertragen wird, sowie eine Lichtsignal-Steuer-Einheit302 , welche die korrespondierenden Licht-Quellen steuert, so dass sie als Antwort auf die Licht-Quellen-Steuer-Signal-Eingabe von dem Anschlussknoten301 flackern. - Der mobile Roboter
500 ist so konzipiert, dass er ein Pose-Berechnungs-Modul504 einschließt, welches selektiv das Flackern der Licht-Quellen der charakteristischen Matrix100 einschließt, durch Übertragen eines Licht-Quellen-Steuer-Signals an das Steuer-Modul des charakteristischen Arrays300 und die Position davon erkennt unter Verwendung der flackernden Licht-Quellen, wodurch eine autonome Navigation ermöglicht wird. Der mobile Roboter500 schließt des Weiteren ein Haupt-Steuer-Modul501 ein, ein Kommunikations-Modul502 , ein Bildverarbeitungs-Modul503 , ein Bewegungs-Steuer-Modul505 und ein Speicher-Modul506 . - Das Haupt-Steuer-Modul
501 steuert alle Betriebsabläufe der Positionsberechnung unter Bewegung entsprechend einem Betriebs-Management-Algorithmus für die autonome Navigation des mobilen Roboters500 sowie die Funktionen, um die Inter-Operationen der entsprechenden Module zu steuern. - Das Kommunikations-Modul
502 überträgt ein Lichtquell-Steuer-Signal, um die Licht-Quellen der charakteristischen Matrix100 zu steuern, so dass sie unter der Betriebs-Steuerung des Haupt-Steuer-Modul501 flackern. Und die zuvor gespeicherten Weltkoordinaten der Licht-Quelle werden durch das Kommunikations-Modul502 referenziert. Drahtlose Kommunikationen, durchgeführt, um Lichtquell-Steuer-Signal zwischen dem Zugangsknoten301 und dem Kommunikations-Modul502 zu übertragen/aufzunehmen, sind in solch einer Art implementiert, dass der Zugangsknoten301 und das Kommunikations-Modul502 neu bestückt sind mit Frequenzen einer hohen Bandbreite und übertragen/empfangen Daten über die zugeordneten Frequenzen. - Des Weiteren können solche drahtlosen Kommunikationen implementiert werden durch drahtlose Kommunikations-Protokolle wie z. B. Infrarot-Daten-Verband (IrDA Infrared Data Association), unter Verwendung von infraroter Strahlung oder Bluetooth, d. h. einer drahtlosen Kommunikations-Technologie im lokalen Bereich.
- Das Bild-Verarbeitungs-Modul
503 verarbeitet ein Signal, um Merkmals-Punkte der spezifizierten Licht-Quelle nachzuweisen, gesteuert, um über das Kommunikations-Modul502 von einem Bildsignal, erhalten durch eine Kamera, zu flackern. Das Bildverarbeitungs-Modul503 schließt eine Kamera ein (nicht gezeigt), die ausgestattet ist mit einem Filter zum Filtern des Bildsignals, basierend auf der Wellenlänge der Licht-Quellen, sowie eine Signal-Verarbeitungs-Einheit (nicht gezeigt) zum Nachweis von Merkmals-Punkten, die mit der Wellenlänge der Licht-Quellen des Bildsignals korrespondieren, das durch die Kamera gefiltert wird, und zum Extrahieren der Koordinaten der empfangenen Merkmals-Punkte (im folgenden hier als "Bild-Koordinaten" bezeichnet). - Das Verfahren zum Erkennen von Merkmals-Punkten, die mit einer Wellenlänge der Licht-Quellen korrespondieren, in der Signal-Prozess-Einheit sowie das Extrahieren der Bild-Koordinaten kann durch Schwellenwert-Technologie und eine Gruppierungs- & Labelings-Technologie (4-connectivity) (Digital Image Processing; Rafael C. Gonzales, Richard E. Wodds, Addison Wesley) implementiert werden. Dieses Verfahren wird durchgeführt durch Binärisierung des Bild-Signals, gefiltert unter Verwendung der Wellenlänge der Licht-Quellen, Extrahieren eines Abschnittes, auf welchem Pixel mit einem Wert von gleich oder größer im Vergleich zu einem bestimmten Wert (beispielsweise 50) miteinander verbunden werden, und welcher eine Graustufe von 255 aufweist, als die Region der Licht-Quelle, Nachweisen der Licht-Quelle durch Entfernen von Rausch-Komponenten aus der extrahier ten Region und Extrahieren der Bild-Koordinaten, basierend auf dem Schwerpunkts-Zentrum.
- Das Pose-Berechnungs-Modul
504 berechnet die präzisen Koordinaten des mobilen Roboters500 unter Verweis auf die Bild-Koordinaten für die spezifizierte Licht-Quelle, erhalten durch das Bild-Verarbeitungs-Modul503 sowie die Weltkoordinaten für die bestimmte Licht-Quelle, erkannt durch das Speicher-Modul506 . Die Translation und Rotation des mobilen Roboters500 werden berechnet durch Anwenden der Bild-Koordinaten und der Weltkoordinaten auf den spezifizierten Positions-Berechnungs-Algorithmus. - Der Positions-Berechnungs-Algorithmus konstruiert ein Extensions-Modell zum Erhalten der Translation und Rotation der Kamera unter Verwendung eines Weltkoordinaten-Systems sowie eines Kamera-Koordinaten-Systems und zum Erhalten einer bestimmten Translationsformel zum Berechnen einer Translation und Rotation der Kamera durch Anwenden des Extensions-Modells auf eine Formel zum Kompensieren für Verzeichnungen, verursacht durch die Linse der Kamera.
- Das Pose-Berechnungs-Modul
504 bestimmt die derzeitige Pose des mobilen Roboters500 durch Berechnen einer Translation, d. h. eines Abstandes, um welchen die Kamera (d. h., der mobile Roboter) von der spezifizierten Licht-Quelle entfernt ist, und einer Rotation relativ zur Licht-Quelle, durch Anwenden der Bild-Koordinaten und der Weltkoordinaten der Licht-Quelle auf die Transformations-Formel, erhalten durch den Pose-Berechnungs-Algorithmus. - Das Bewegungs-Steuer-Modul
505 steuert die Bewegung des mobilen Roboters500 unter Verwendung von Steuerungs-Mitteln zum Steuern der Motoren der rechten und linken Räder, um so zu ermöglichen, dass der mobile Roboter500 autonom bewegt wird. Das Bewegungs-Steuer-Modul505 bestimmt einen Bewegungspfad, entlang dessen der Roboter500 sich zu einem Zielort bewegt unter Verwendung der laufenden Positions-Koordinaten durch Abgleich der Ausgabe für Translation und Rotation des mobilen Roboters500 aus dem Pose-Berechnungs-Modul504 mit der Bereichs-Koordinaten-Information eines Arbeitsraumes, zuvor gespeichert in dem Speicher-Modul506 , und steuert den mobilen Roboter500 , so dass er sich entlang des bestimmten Bewegungs-Pfades bewegt. - Das Speicher-Modul
506 speichert einen Betriebs-Management-Algorithmus für die autonome Navigation des mobilen Roboters500 und Information für den Betriebs-Management-Algorithmus. Das Speicher-Modul506 speichert Parameter zum Kompensieren der Ver zeichnung der Linsen der Kamera, berechnet durch Kamera-Kalibration, der Weltkoordinaten der Licht-Quellen der charakteristischen Matrix100 und der Koordinateninformation des Arbeitsraumes, über welchen der mobile Roboter500 autonom navigiert wird. - Das Verfahren für die autonome Navigation des mobilen Roboters unter Verwendung des Systems für die autonome Navigation des mobilen Roboters entsprechend der vorliegenden Erfindung, wird im Detail beschrieben unter Verweis auf die beigefügten Zeichnungen.
- Wie in
2 gezeigt, überträgt das Haupt-Steuer-Modul501 des mobilen Roboters500 ein Licht-Quellen-Steuersignal (ein Anschalt-Signal), um die spezifischen Licht-Quellen der charakteristischen Matrix100 am Schritt S1 anzuschalten. - Wenn das Lichtquell-Steuer-Signal, übertragen von dem mobilen Roboter
500 durch den Zugangsknoten301 des Steuer-Moduls der charakteristischen Matrix300 durch den Knotenpunkt301 des Steuer-Moduls der charakteristischen Matrix300 empfangen wird, wird eine korrespondierende Licht-Quelle durch die Lichtquell-Steuer-Einheit302 angeschaltet und das Bild-Verarbeitungs-Modul503 des mobilen Roboters500 bestimmt, ob die Licht-Quelle, gesteuert, um als Antwort auf das Lichtquell-Steuer-Signal zu flackern, durch Erkennen der Merkmals-Punkte der Licht-Quelle durch ein Bild-Signal, eingefangen durch die Kamera am Schritt S2 erkannt wird. - Falls die Licht-Quelle nicht erkannt wird als Ergebnis der Bestimmung des Schrittes S2, wird eine Licht-Quelle erkannt durch Auswahl einer benachbarten Licht-Quelle unter Verweis auf die Weltkoordinaten der Licht-Quellen der charakteristischen Matrix
100 , zuvor gespeichert im Speicher-Modul506 , Übertragen eines Lichtquell-Steuer-Signal, um diese Licht-Quelle anzuschalten, und Bestimmen, ob die Licht-Quelle durch die Kamera am Schritt S3 erkannt wird. - Falls die Licht-Quelle als das Ergebnis der Bestimmung des Schrittes S3 erkannt wird, wird die derzeitige Position des mobilen Roboters
500 bestimmt unter Verwendung der Bild-Koordinaten der Licht-Quelle, erkannt durch die Kamera, und der Weltkoordinaten der Licht-Quelle, erkannt durch das Speicher-Modul506 am Schritt S4. - Das Haupt-Steuer-Modul
501 des mobilen Roboters500 bestimmt einen Bewegungspfad des mobilen Roboters500 unter Verwendung der derzeitigen Weltkoordinaten, bestimmt durch den oben beschriebenen Schritt und steuert den mobilen Roboters500 , so dass er entlang des Bewegungspfades, bestimmt durch das Bewegungs-Steuer-Modul505 bewegt wird. - Das Verfahren zur autonomen Navigation eines mobilen Roboters entsprechend der vorliegenden Erfindung wird im Detail beschrieben unter Verweis auf die beigefügten Zeichnungen.
- Falls ein Gehäuse, ausgerüstet mit einem Heim-Automations-System, ausgewählt wird als Arbeitsraum des mobilen Roboters, werden die Licht-Quellen der charakteristischen Matrix
100 über das Gehäuse hinweg installiert, wie in3 gezeigt wird, und so gesteuert, dass sie durch das Steuer-Modul der charakteristischen Matrix300 , bereitgestellt in dem Server des Heim-Automatisierungs-Systems, flackern. - Wenn die Licht-Quelle in dem Stadium angeschaltet wird, wo der mobile Roboter
500 in eine zufällige Position in dem Arbeitsraum des mobilen Roboters500 bewegt wird, wie in4 gezeigt wird, bestimmt der mobile Roboter500 grob die laufende Position davon durch einen Initialisierungs-Prozess und berechnet präzise die derzeitige Position davon durch einen Lokalisierungs-Prozess. - Der Initialisierungs-Prozess ist ein Prozess der Bestimmung der ursprünglichen Position des mobilen Roboters, wenn Energie auf den mobilen Roboter übertragen wird, was durchgeführt wird, wie in
5 gezeigt ist. - Wenn Energie auf den mobilen Roboter
500 am Schritt S11 übertragen wird, steuert das Haupt-Steuer-Modul501 des mobilen Roboters500 sequentiell die Licht-Quellen der charakteristischen Matrix100 , so dass sie mit Blick auf die spezifische Lichtquelle und die Weltkoordinaten der Licht-Quellen der charakteristischen Matrix100 am Schritt S12 flackern. - In dem Prozess des Steuerns der Licht-Quellen der charakteristischen Matrix
100 , so dass sie sequentiell flackern, erkennt das Haupt-Steuer-Modul des mobilen Roboters500 die Merkmals-Punkte der Licht-Quelle von einem Bildsignal, das durch die Kamera erhalten wird, unter Verwendung des Bild-Verarbeitungs-Moduls503 und bestimmt, ob die Licht-Quelle, die gesteuert wird, so dass sie flackert, durch die Kamera am Schritt S13 erkannt wird. - Falls die Licht-Quelle nicht erkannt wird als Ergebnis der Bestimmung des Schrittes S13, wird der Prozess des Steuerns der Licht-Quellen der charakteristischen Matrix
100 , so dass sie sequentiell nach Veränderung der Richtung der Kamera durch Rotation der Kamera flackern, und des Erkennens der Licht-Quelle unter Verwendung eines Bildes, erhalten durch die Kamera, wiederholt für eine eingestellte Zahl von Wiederholungen Max_Num am Schritt S14. Falls die Licht-Quelle nicht erkannt wird, nachdem der Prozess über eine zufällig eingestellte Zahl an Wiederholungen wiederholt worden ist, wird der Prozess als ein Fehler bestimmt durch Erzeugen eines Licht-Quell-Erkennungs-Fehler-Signals am Schritt S15. - Falls die Licht-Quelle erkannt wird als Ergebnis der Bestimmung des Schrittes S13, werden die Welt-Koordinaten der nachgewiesenen Licht-Quelle, gespeichert in dem Speicher-Modul
506 , erkannt durch die Verwendung einer ID-Nummer der nachgewiesenen Licht-Quelle am Schritt S16 und die laufende Position des mobilen Roboters500 wird grob sichergestellt durch die Verwendung der Welt-Koordinaten der erkannten Licht-Quelle am Schritt S17. - Beispielsweise in dem Fall, wo die Welt-Koordinaten der Licht-Quelle, sichergestellt durch die Verwendung der ID-Nummer der Licht-Quelle, nachgewiesen durch die Kamera während des Flackerns der Licht-Quelle der charakteristischen Matrix
100 , die Positionsinformation eines Wohnzimmers ist, kann das hauptsächliche Steuer-Modul501 des mobilen Roboters500 grob sicherstellen, dass der mobile Roboter500 in dem Wohnzimmer positioniert ist. - Wenn der Initiations-Prozess des mobilen Roboters
500 vollständig abgelaufen ist, führt das Steuer-Modul501 des mobilen Roboters500 einen Positions-Berechnungs-Prozess des Berechnens der präzisen Position des mobilen Roboters500 mit Blick auf die grobe Positions-Information, erhalten durch den Initiations-Prozess, durch. - Der Positions-Berechnungs-Prozess wird durchgeführt, wie in
6 gezeigt ist. Zunächst setzt das hauptsächliche Steuer-Modul501 des mobilen Roboters500 die Anzahl der Licht-Quellen, die benötigt ist, um die präzise Position des mobilen Roboters500 zu berechnen, auf eine bestimmte Zahl N. - Nachdem die Zahl der Lichtquellen N gesetzt wurde, um die präzise Position zu berechnen, werden N Licht-Quellen, die geeignet sind für die Positions-Berechnung, ausgewählt aus den Licht-Quellen, die in der Nähe der Licht-Quelle sind, erkannt während des Initiations- Prozesses am Schritt S21, und ein Licht-Quell-Steuer-Signal wird übertragen, um die ausgewählten N Licht-Quellen am Schritt S22 einzuschalten.
- Beispielsweise können, wenn die während des Initiations-Prozesses erkannte Licht-Quelle eine Fünfte Licht-Quelle des Wohnzimmer ist, in dem Fall, wo die Anzahl der Licht-Quellen, benötigt zur Berechnung der Position des mobilen Roboters
500 auf 5 eingestellt ist, Licht-Quellen einer eingestellten Zahl, eingestellt um die Position zu berechnen, angeschaltet werden durch Anschalten von sowohl zwei Licht-Quellen auf der rechten Seite der fünften Licht-Quelle und zwei Licht-Quellen auf der linken Seite der fünften Licht-Quelle oder durch Einschalten von vier Licht-Quellen auf der rechten Seite der fünften Licht-Quelle oder vier Licht-Quellen auf der linken Seite der fünften Licht-Quelle. - Das Steuer-Modul der charakteristischen Matrix
300 schaltet eine korrespondierende Licht-Quelle als Antwort auf ein übertragenes Licht-Quell-Steuer-Signal an und das hauptsächliche Steuer-Modul501 des mobilen Roboters500 erkennt die Merkmals-Punkte der Licht-Quelle von einem Bild-Signal, erhalten durch die Kamera, unter Verwendung des Bild-Verarbeitungs-Moduls503 und bestimmt, ob die N Licht-Quellen, angeschaltet, um die Position des Roboters500 zu erkennen, am Schritt S23 erkannt werden. - Falls die N Licht-Quellen nicht erkannt werden als Ergebnis der Erkennung des Schrittes S24, wird bestimmt, ob die Zahl der Licht-Quellen erkannt durch die Kamera, gleich ist oder größer ist, als zwei im Schritt S24. Falls die Anzahl der erkannten Licht-Quellen weniger als zwei ist, wird eine Licht-Quelle, erkannt durch die Kamera, erkannt durch Auswählen und Flackern einer anderen Licht-Quelle am Schritt S22. Falls die Anzahl der Licht-Quellen, die erkannt wurden, zwei oder mehr ist am Schritt S24, werden die ID-Nummern der Licht-Quellen, erkannt durch die Kamera, bestimmt durch Steuern der Lichtquellen, so dass sie am Schritt S25 flackern.
- Die Bild-Koordinaten von N Licht-Quellen und zwei oder mehr Licht-Quellen, erkannt durch die oben beschriebene Bestimmung, werden extrahiert aus einem Bild-Signal, erhalten durch die Kamera und Welt-Koordinaten, korrespondierend mit Licht-Quellen, werden erkannt aus dem Speicher-Modul
506 unter Verwendung der bestimmten IDs am Schritt S26. - Das Pose-Berechnungs-Modul
504 berechnet die Translation und Rotation des mobilen Roboters500 durch Anwenden der Bild-Koordinaten und Welt-Koordinaten der erkannten Licht-Quellen auf die Transformations-Formel, erhalten durch den Positions-Berechnungs-Algorithmus. - Das hauptsächliche Steuer-Modul
501 des mobilen Roboters500 bestimmt einen Bewegungspfad des mobilen Roboters500 durch Anwenden der Translation und Rotation des mobilen Roboters500 für die räumliche Koordinaten-Information des mobilen Roboters500 in dem Arbeitsraum und steuert den mobilen Roboter500 , so dass er sich durch die Verwendung des Bewegungs-Steuer-Moduls505 bewegt. - Falls die Anzahl der Licht-Quellen, die benötigt wird, um die Position des mobilen Roboters
500 zu berechnen, auf zwei eingestellt wird, sind die Bild-Koordinaten der Licht-Quellen, erkannt durch ein Bild-Signal, erhalten durch die Kamera in dem Bilderverarbeitungs-Modul503 des mobilen Roboters500 , (u1, v1) und (u2, v2), und die spezifischen Koordinaten sind und die Translation und Rotation des mobilen Roboters werden dann erhalten wie unten beschrieben. - Wenn eine Versetzungs-Matrix zum Erhalten der Translation und Rotation des mobilen Roboters konstruiert wird unter Verwendung des Welt-Koordinaten-Systems und des Kamera-Koordinaten-Systems, die Kamera des mobilen Roboters sich auf einer bestimmten Höhe bewegt, und die Translation mit Blick auf die z-Achse null ist, so wird die folgende Versetzungs-Matrix erhalten. wobei t eine Translation ist und R eine Rotation ist.
- Wenn die Versetzungs-Matrix mit Blick auf die Translation und Rotation des mobilen Roboters erhalten wird, wird die Versetzungs-Matrix auf eine Formel angewandt zum Kompensieren der Verzeichnung, verursacht durch die Linse der Kamera. Die Linsen-Verzeichnungs-Kompensations-Formel ist wie folgt (siehe Three-Dimensional Computer Vision – A Geometric Viewpoint, Oliver Faugeras, 1993).
-
- In der oben dargestellten Matrix-Gleichung sind fx, fy, u0 und v0 Parameter-Werte, bestimmt entsprechend den Kamera-Charakteristika durch Kamera-Kalibration, ui und vi sind Bild-Koordinaten, die erhalten werden von einem Eingabe-Bild-Signal mit Blick auf die Merkmals-Punkte der erkannten Lichtquellen und sind die Welt-Koordinaten der erkannten Licht-Quellen.
-
-
- Durch den oben dargestellten Prozess berechnet das Pose-Berechnungs-Modul die derzeitige Position des mobilen Roboters
500 und bestimmt präzise die laufende Position des mobilen Roboters500 durch Anwenden der berechneten Translations- und Rotations-Werte auf räumliche Koordinaten mit Blick auf den Arbeitsraum des mobilen Roboters500 . -
-
- Mit dem oben dargestellten Prozess wird die laufende Position des mobilen Roboters
500 berechnet. Das Haupt-Steuer-Modul501 des mobilen Roboters500 bestimmt die präzise laufende Position des mobilen Roboters500 durch Anlegen der berechneten Translations- und Rotations-Werte auf zuvor gespeicherten räumlichen Koordinaten mit Blick auf den Arbeitsraum des mobilen Roboters500 . - Des Weiteren wird ein Bewegungs-Pfad für den mobilen Roboter, um sich zu einem Zielort zu bewegen, bestimmt unter Verwendung der Positions-Information, und der mobile Roboter
500 wird so gesteuert, dass er sich durch das Bewegungs-Steuer-Modul505 bewegen kann. - In Übereinstimmung mit der vorliegenden Erfindung kann der mobile Roboter sich zu einem präzisen Zielort bewegen durch Steuern der Licht-Quellen einer charakteristischen Matrix, so dass sie flackern und Bestimmen von deren Position.
- Der mobile Roboter wählt eine bestimmte Licht-Quelle aus, die verwendbar ist für die Berechnung dieser Position von den Licht-Quellen der charakteristischen Matrix und bestimmt in effizienter Art und Weise deren Position unter Verweis auf die zuvor gespeicherten Welt-Koordinaten der Licht-Quellen der charakteristischen Matrix.
- Des Weiteren verwendet die charakteristische Matrix der vorliegenden Erfindung eine Vielzahl von Licht-Quellen mit einer bestimmten Wellenlänge, so dass sie als Mittel verwendet werden kann zum Bereitstellen von Positions-Information, um dem mobilen Roboter beim Durchführen der autonomen Navigation in der Umgebung eines Hauses behilflich zu sein, ohne beeinflusst zu werden durch die Variationen der Umgebung eines Hauses.
Claims (17)
- Mobiler Roboter (
500 ), der umfasst: ein Kommunikationsmodul (502 ) zum Senden eines Lichtquellen-Steuersignals, mit dem das Flackern einer Vielzahl von Lichtquellen einer Zeichenanordnung gesteuert wird, die in einem Arbeitsraum vorhanden ist; ein Bildverarbeitungsmodul (503 ) zum Berechnen von Bildkoordinaten wenigstens einer der Vielzahl von Lichtquellen durch Erfassen der Lichtquellen, die so gesteuert werden, dass sie in Reaktion auf das Lichtquellen-Steuersignal flackern, aus einem Bildsignal, das mit einer Kamera gewonnen wird; ein Pose-Berechnungsmodul (504 ) zum Berechnen von Koordinaten des mobilen Roboters unter Verwendung der berechneten Bildkoordinaten und zuvor gespeicherter Bildkoordinaten der Lichtquellen; ein Bewegungssteuermodul (505 ), das einen Bewegungsweg für den mobilen Roboter durch Anwenden der Positionskoordinaten des mobilen Roboters auf zuvor gespeicherte räumliche Koordinaten des Arbeitsraums berechnet und den mobilen Roboter so steuert, dass er sich auf dem Bewegungsweg entlang bewegt; und ein Hauptsteuermodul (501 ) zum Steuern von Interoperationen der Module und allgemeiner Operationen des mobilen Roboters; dadurch gekennzeichnet, dass das Lichtquellen-Steuersignal zu einem Zeichenanordnungs-Steuermodul gesendet wird, das eine Vielzahl von Lichtquellen steuert und die Lichtquellen spezifiziert, die das Zeichenanordnungs-Steuermodul so steuern soll, dass sie flackern. - Mobiler Roboter nach Anspruch 1, der des Weiteren ein Speichermodul (
506 ) zum Speichern der Weltkoordinaten der Lichtquellen, von Raumkoordinaten des mobilen Roboters in dem Arbeitsraum und von Parameter umfasst, die durch Kamerakalibrierung zum Kompensieren der Verzeichnung eines Objektivs der Kamera berechnet werden. - Mobiler Roboter nach Anspruch 1 oder 2, wobei das Pose-Berechnungsmodul (
504 ) Translation und Drehung des Roboters durch Anwenden der Bildkoordinaten und der Weltkoordinaten auf den spezifizierten Positionsberechnungsalgorithmus berechnet. - Mobiler Roboter nach Anspruch 3, wobei der Pose-Berechnungsalgorithmus eine bestimmte Transformationsmatrixgleichung ist, die ermittelt wird, in dem ein Erweiterungsmodell (extension model) zum Ermitteln einer Translation und einer Drehung der Kamera unter Verwendung eines Weltkoordinatensystems und eines Kamerakoordinatensystem konstruiert wird, und das Erweiterungsmodell auf eine Formel zum Kompensieren von durch ein Objektiv der Kamera verursachter Verzeichnung angewendet wird.
- System für autonome Navigation eines mobilen Roboters (
500 ), das umfasst: eine Wegpunktanordnung (100 ), die eine Vielzahl von Lichtquellen umfasst, die in einem bestimmten Bereich angeordnet sind und selektiv flackern; ein Wegmarkenanordnungs-Steuermodul (300 ), das die Lichtquellen so steuert, dass sie flackern; und einen mobilen Roboter (500 ) nach einem der vorangehenden Ansprüche. - System nach Anspruch 5, wobei die Lichtquellen (1, 2 ... n) Lichtemissionsvorrichtungen sind, die Elektolumineszenzvorrichtung und Leuchtdioden einschließen und die Licht mit einer bestimmten Wellenlänge und einer bestimmten Helligkeit emittieren.
- System nach Anspruch 5 oder 6, wobei den Lichtquellen (1, 2 ... n) jeweils Positionsinformationen zugewiesen sind, die aus einer spezifischen Identifizierungsnummer und Weltkoordinaten in einem Arbeitsraum bestehen, in dem die Wegmarkenanordnung angeordnet ist.
- System nach Anspruch 5, 6 oder 7, wobei das Wegmarken-Steuermodul (
300 ) umfasst: einen Zugangspunkt (301 ) zum Empfangen und Verarbeiten des von dem mobilen Roboter gesendeten Lichtquellen-Steuersignals; und eine Lichtquellen-Steuereinheit (302 ), die entsprechende Lichtquellen so steuert, dass sie in Reaktion auf das von dem Zugangspunkt eingegebene Lichtquellen-Steuersignal flackern. - System nach Anspruch 5, 6, 7 oder 8, wobei das Pose-Berechnungsmodul (
504 ) Translation und Drehung des Roboters durch Anwenden von Bildkoordinaten und Weltkoordinaten auf einen bestimmten Pose-Berechnungsalgorithmus berechnet. - System nach Anspruch 5, wobei der Pose-Berechnungsalgorithmus eine bestimmte Transformationsmatrixgleichung ist, die ermittelt wird, indem ein Erweiterungsmodell zum Ermitteln einer Translation und einer Drehung der Kamera unter Verwendung eines Weltkoordinatensystems und eines Bildkoordinatensystems konstruiert wird und das Erweiterungsmodell auf eine Formel zum Kompensieren von durch ein Objektiv der Kamera verursachter Verzerrung angewendet wird.
- System nach Anspruch 9 oder 10, wobei dem Kommunikationsmodul (
502 ) und dem Zugangspunkt (301 ) Frequenzen einer hohen Bandbreite zugewiesen sind und sie Daten über die zugewiesenen Frequenzen senden/empfangen, oder das Kommunikationsmodul (502 ) und der Zugangspunkt (301 ) über Infrarot-Datenübertragungsvorgänge unter Verwendung von Infrarotstrahlen oder über Datenübertragungsvorgänge auf Basis von Drahtlos-Datenübermittlungsprotokollen, wie beispielsweise Bluetooth, das eine lokale Drahtlos-Datenübertragungstechnologie ist, das Lichtquellen-Steuersignal senden/empfangen. - System nach Anspruch 5, wobei das Bildverarbeitungsmodul (
503 ) umfasst: eine Kamera, die mit einem Filter zum Filtern einer Wellenlänge der Lichtquelle aus einem Bildsignal versehen ist; und eine Signalverarbeitungseinheit zum Erfassen der Wellenlänge der Lichtquelle aus dem von der Kamera ausgegebenen gefilterten Bildsignal. - Verfahren für autonome Navigation eines mobilen Roboters (
500 ), das umfasst: den ersten Schritt, in dem der mobile Roboter (500 ) selektiv eine Vielzahl von Lichtquellen einer Wegmarkenanordnung (100 ), die über einen bestimmten Arbeitsraum angeordnet ist, so steuert, dass sie flackern; den zweiten Schritt des Extrahierens von Bildkoordinaten einer Kamera durch Erfassen einer Lichtquelle, die so gesteuert wird, dass sie flackert, aus einem von der Kamera eingegebenen Bildsignal; und den dritten Schritt des Berechnens einer aktuellen Pose des mobilen Roboters unter Bezugnahme auf die extrahierten Bildkoordinaten und zuvor gespeicherte Weltkoordinaten der Lichtquelle; dadurch gekennzeichnet, dass in dem ersten Schritt der mobile Roboter ein Lichtquellen-Steuersignal zu einem Wegpunktanordnungs-Steuermodul, das die Vielzahl von Lichtquellen steuert, sendet, das die Lichtquelle spezifiziert, die flackern soll, und dass das Wegzeichen-Steuermodul diese Lichtquellen so steuert, dass sie flackern. - Verfahren nach Anspruch 13, das des Weiteren den vierten Schritt umfasst, in dem ein Bewegungssteuermodul (
505 ) einen Bewegungsweg zu einem Ziel unter Verwendung der berechneten aktuellen Position bestimmt, und den mobilen Roboter so steuert, dass er sich auf dem vorgegebenen Bewegungsweg entlang bewegt. - Verfahren nach Anspruch 13 oder 14, wobei der zweite Schritt die folgenden Schritte umfasst: Erfassen kennzeichnender Punkte der Lichtquelle (1, 2 ... n) aus dem durch die Kamera aufgenommenen Bildsignal; unter Verwendung der kennzeichnenden Punkte der Lichtquelle Bestimmen, ob die Lichtquelle (1, 2 ... n) durch die Kamera erfasst wird oder nicht; Suchen nach der durch die Kamera erfassten Lichtquelle (1, 2 ... n), indem Lichtquellen in der Nähe einer zuvor ausprobierten Lichtquelle sequenziell gesteuert werden, so dass sie flackern, wenn die erste ausprobierte Lichtquelle nicht erfasst wird; und Extrahieren von Bildkoordinaten einer erfassten Lichtquelle aus dem Bildsignal, wenn eine Lichtquelle erfasst wird.
- Verfahren nach einem der Ansprüche 13 bis 15, wobei der dritte Schritt die folgenden Schritte umfasst: Erfassen von Positionsinformationen der erfassten Lichtquelle (1, 2 ... n); Berechnen der Pose des mobilen Roboters unter Bezugnahme auf die berechnete Position des mobilen Roboters; und Ermitteln einer genauen Position des mobilen Roboters durch Abgleichen der berechneten Position des mobilen Roboters mit zuvor in dem mobilen Roboter gespeicherten Raumkoordinateninformationen des Arbeitsraums.
- Verfahren nach einem der Ansprüche 13 bis 16, wobei der mobile Roboter (
500 ) zwei oder mehr Lichtquellen erfasst, indem er den ersten und den zweiten Schritt wiederholt, um genau die Position des mobilen Roboters zu ermitteln.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR2003001828 | 2003-01-11 | ||
KR10-2003-0001828A KR100506533B1 (ko) | 2003-01-11 | 2003-01-11 | 이동로봇 및 그에 따른 자율주행 시스템 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE602004011408D1 DE602004011408D1 (de) | 2008-03-13 |
DE602004011408T2 true DE602004011408T2 (de) | 2009-04-16 |
Family
ID=32501497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE602004011408T Expired - Lifetime DE602004011408T2 (de) | 2003-01-11 | 2004-01-08 | Mobiler Roboter, sowie System und Verfahren zur autonomen Navigation eines solchen Roboters |
Country Status (5)
Country | Link |
---|---|
US (1) | US7613544B2 (de) |
EP (1) | EP1437636B1 (de) |
JP (1) | JP4115946B2 (de) |
KR (1) | KR100506533B1 (de) |
DE (1) | DE602004011408T2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011108579A1 (de) * | 2011-07-27 | 2013-01-31 | Sew-Eurodrive Gmbh & Co. Kg | Anlage, aufweisend Mobilteile, und Verfahren zum Übertragen von Information bei einer Anlage |
Families Citing this family (178)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6658091B1 (en) | 2002-02-01 | 2003-12-02 | @Security Broadband Corp. | LIfestyle multimedia security system |
US9141276B2 (en) | 2005-03-16 | 2015-09-22 | Icontrol Networks, Inc. | Integrated interface for mobile device |
US8988221B2 (en) | 2005-03-16 | 2015-03-24 | Icontrol Networks, Inc. | Integrated security system with parallel processing architecture |
US10721087B2 (en) | 2005-03-16 | 2020-07-21 | Icontrol Networks, Inc. | Method for networked touchscreen with integrated interfaces |
US10382452B1 (en) | 2007-06-12 | 2019-08-13 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11582065B2 (en) | 2007-06-12 | 2023-02-14 | Icontrol Networks, Inc. | Systems and methods for device communication |
US20090077623A1 (en) | 2005-03-16 | 2009-03-19 | Marc Baum | Security Network Integrating Security System and Network Devices |
US11201755B2 (en) | 2004-03-16 | 2021-12-14 | Icontrol Networks, Inc. | Premises system management using status signal |
US10375253B2 (en) | 2008-08-25 | 2019-08-06 | Icontrol Networks, Inc. | Security system with networked touchscreen and gateway |
US20170118037A1 (en) | 2008-08-11 | 2017-04-27 | Icontrol Networks, Inc. | Integrated cloud system for premises automation |
US11916870B2 (en) | 2004-03-16 | 2024-02-27 | Icontrol Networks, Inc. | Gateway registry methods and systems |
US10522026B2 (en) | 2008-08-11 | 2019-12-31 | Icontrol Networks, Inc. | Automation system user interface with three-dimensional display |
US11343380B2 (en) | 2004-03-16 | 2022-05-24 | Icontrol Networks, Inc. | Premises system automation |
US9729342B2 (en) | 2010-12-20 | 2017-08-08 | Icontrol Networks, Inc. | Defining and implementing sensor triggered response rules |
US11368429B2 (en) | 2004-03-16 | 2022-06-21 | Icontrol Networks, Inc. | Premises management configuration and control |
US9609003B1 (en) | 2007-06-12 | 2017-03-28 | Icontrol Networks, Inc. | Generating risk profile using data of home monitoring and security system |
US10313303B2 (en) | 2007-06-12 | 2019-06-04 | Icontrol Networks, Inc. | Forming a security network including integrated security system components and network devices |
JP2007529826A (ja) | 2004-03-16 | 2007-10-25 | アイコントロール ネットワークス, インコーポレイテッド | 対象事項管理ネットワーク |
US8963713B2 (en) | 2005-03-16 | 2015-02-24 | Icontrol Networks, Inc. | Integrated security network with security alarm signaling system |
US10142392B2 (en) | 2007-01-24 | 2018-11-27 | Icontrol Networks, Inc. | Methods and systems for improved system performance |
US11159484B2 (en) | 2004-03-16 | 2021-10-26 | Icontrol Networks, Inc. | Forming a security network including integrated security system components and network devices |
US10200504B2 (en) | 2007-06-12 | 2019-02-05 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US11677577B2 (en) | 2004-03-16 | 2023-06-13 | Icontrol Networks, Inc. | Premises system management using status signal |
US11489812B2 (en) | 2004-03-16 | 2022-11-01 | Icontrol Networks, Inc. | Forming a security network including integrated security system components and network devices |
US10348575B2 (en) | 2013-06-27 | 2019-07-09 | Icontrol Networks, Inc. | Control system user interface |
US7711796B2 (en) | 2006-06-12 | 2010-05-04 | Icontrol Networks, Inc. | Gateway registry methods and systems |
US11811845B2 (en) | 2004-03-16 | 2023-11-07 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US11277465B2 (en) | 2004-03-16 | 2022-03-15 | Icontrol Networks, Inc. | Generating risk profile using data of home monitoring and security system |
US10237237B2 (en) | 2007-06-12 | 2019-03-19 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US8635350B2 (en) | 2006-06-12 | 2014-01-21 | Icontrol Networks, Inc. | IP device discovery systems and methods |
US9531593B2 (en) | 2007-06-12 | 2016-12-27 | Icontrol Networks, Inc. | Takeover processes in security network integrated with premise security system |
US11316958B2 (en) | 2008-08-11 | 2022-04-26 | Icontrol Networks, Inc. | Virtual device systems and methods |
US9191228B2 (en) | 2005-03-16 | 2015-11-17 | Icontrol Networks, Inc. | Cross-client sensor user interface in an integrated security network |
US10156959B2 (en) | 2005-03-16 | 2018-12-18 | Icontrol Networks, Inc. | Cross-client sensor user interface in an integrated security network |
US11113950B2 (en) | 2005-03-16 | 2021-09-07 | Icontrol Networks, Inc. | Gateway integrated with premises security system |
US11244545B2 (en) | 2004-03-16 | 2022-02-08 | Icontrol Networks, Inc. | Cross-client sensor user interface in an integrated security network |
US10444964B2 (en) | 2007-06-12 | 2019-10-15 | Icontrol Networks, Inc. | Control system user interface |
US10127802B2 (en) | 2010-09-28 | 2018-11-13 | Icontrol Networks, Inc. | Integrated security system with parallel processing architecture |
US10339791B2 (en) | 2007-06-12 | 2019-07-02 | Icontrol Networks, Inc. | Security network integrated with premise security system |
EP1741044B1 (de) * | 2004-03-27 | 2011-09-14 | Harvey Koselka | Autonomer persönlicher dienstroboter |
IL162612A (en) * | 2004-06-17 | 2010-12-30 | Michael Braiman | Tracking system using fixed optical radiators and method thereof |
US7845560B2 (en) | 2004-12-14 | 2010-12-07 | Sky-Trax Incorporated | Method and apparatus for determining position and rotational orientation of an object |
US20120324566A1 (en) | 2005-03-16 | 2012-12-20 | Marc Baum | Takeover Processes In Security Network Integrated With Premise Security System |
US20170180198A1 (en) | 2008-08-11 | 2017-06-22 | Marc Baum | Forming a security network including integrated security system components |
US20110128378A1 (en) | 2005-03-16 | 2011-06-02 | Reza Raji | Modular Electronic Display Platform |
US10999254B2 (en) | 2005-03-16 | 2021-05-04 | Icontrol Networks, Inc. | System for data routing in networks |
US11615697B2 (en) | 2005-03-16 | 2023-03-28 | Icontrol Networks, Inc. | Premise management systems and methods |
US9450776B2 (en) | 2005-03-16 | 2016-09-20 | Icontrol Networks, Inc. | Forming a security network including integrated security system components |
US11700142B2 (en) | 2005-03-16 | 2023-07-11 | Icontrol Networks, Inc. | Security network integrating security system and network devices |
US11496568B2 (en) | 2005-03-16 | 2022-11-08 | Icontrol Networks, Inc. | Security system with networked touchscreen |
US9306809B2 (en) | 2007-06-12 | 2016-04-05 | Icontrol Networks, Inc. | Security system with networked touchscreen |
JP4300199B2 (ja) * | 2005-06-13 | 2009-07-22 | 株式会社東芝 | 移動ロボット、移動ロボットの位置姿勢算出方法、移動ロボットの自律走行システム |
JP4478885B2 (ja) * | 2005-06-28 | 2010-06-09 | ソニー株式会社 | 情報処理装置および方法、プログラム、並びに記録媒体 |
KR100703882B1 (ko) * | 2005-09-29 | 2007-04-06 | 전자부품연구원 | 단일 카메라 기반 포즈인식이 가능한 이동로봇 및 그 방법 |
US8935006B2 (en) * | 2005-09-30 | 2015-01-13 | Irobot Corporation | Companion robot for personal interaction |
KR100669250B1 (ko) * | 2005-10-31 | 2007-01-16 | 한국전자통신연구원 | 인공표식 기반의 실시간 위치산출 시스템 및 방법 |
ES2623920T3 (es) * | 2005-12-02 | 2017-07-12 | Irobot Corporation | Sistema de robot. |
US8381982B2 (en) | 2005-12-03 | 2013-02-26 | Sky-Trax, Inc. | Method and apparatus for managing and controlling manned and automated utility vehicles |
US7634336B2 (en) * | 2005-12-08 | 2009-12-15 | Electronics And Telecommunications Research Institute | Localization system and method of mobile robot based on camera and landmarks |
US10079839B1 (en) | 2007-06-12 | 2018-09-18 | Icontrol Networks, Inc. | Activation of gateway device |
KR100757937B1 (ko) * | 2006-06-30 | 2007-09-12 | 삼성전자주식회사 | 로봇의 위치 추적 및 지도 작성 방법 |
KR100785784B1 (ko) * | 2006-07-27 | 2007-12-13 | 한국전자통신연구원 | 인공표식과 오도메트리를 결합한 실시간 위치산출 시스템및 방법 |
KR100811885B1 (ko) * | 2006-09-11 | 2008-03-10 | 한국전자통신연구원 | 이동 로봇의 위치 인식 방법 및 이를 위한 장치 |
KR100834987B1 (ko) * | 2006-11-30 | 2008-06-03 | 광운대학교 산학협력단 | 실내항법 좌표확인시스템 |
JP2008146489A (ja) * | 2006-12-12 | 2008-06-26 | Matsushita Electric Works Ltd | 自律移動装置制御システム及び自律移動装置 |
US11706279B2 (en) | 2007-01-24 | 2023-07-18 | Icontrol Networks, Inc. | Methods and systems for data communication |
US7633385B2 (en) | 2007-02-28 | 2009-12-15 | Ucontrol, Inc. | Method and system for communicating with and controlling an alarm system from a remote server |
US8451986B2 (en) | 2007-04-23 | 2013-05-28 | Icontrol Networks, Inc. | Method and system for automatically providing alternate network access for telecommunications |
US10051078B2 (en) | 2007-06-12 | 2018-08-14 | Icontrol Networks, Inc. | WiFi-to-serial encapsulation in systems |
US10616075B2 (en) | 2007-06-12 | 2020-04-07 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11423756B2 (en) | 2007-06-12 | 2022-08-23 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US10523689B2 (en) | 2007-06-12 | 2019-12-31 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US11212192B2 (en) | 2007-06-12 | 2021-12-28 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11316753B2 (en) | 2007-06-12 | 2022-04-26 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US10498830B2 (en) | 2007-06-12 | 2019-12-03 | Icontrol Networks, Inc. | Wi-Fi-to-serial encapsulation in systems |
US11646907B2 (en) | 2007-06-12 | 2023-05-09 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US10389736B2 (en) | 2007-06-12 | 2019-08-20 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US10423309B2 (en) | 2007-06-12 | 2019-09-24 | Icontrol Networks, Inc. | Device integration framework |
US11218878B2 (en) | 2007-06-12 | 2022-01-04 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US10666523B2 (en) | 2007-06-12 | 2020-05-26 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11237714B2 (en) | 2007-06-12 | 2022-02-01 | Control Networks, Inc. | Control system user interface |
US11601810B2 (en) | 2007-06-12 | 2023-03-07 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11089122B2 (en) | 2007-06-12 | 2021-08-10 | Icontrol Networks, Inc. | Controlling data routing among networks |
US11831462B2 (en) | 2007-08-24 | 2023-11-28 | Icontrol Networks, Inc. | Controlling data routing in premises management systems |
EP2826436B1 (de) | 2007-09-06 | 2018-03-28 | Alcon LenSx, Inc. | Präzises Zielen von chirurgischer Photodisruption |
US8210435B2 (en) | 2008-01-14 | 2012-07-03 | Sky-Trax, Inc. | Optical position marker apparatus |
US11916928B2 (en) | 2008-01-24 | 2024-02-27 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US8565913B2 (en) | 2008-02-01 | 2013-10-22 | Sky-Trax, Inc. | Apparatus and method for asset tracking |
JP5262148B2 (ja) * | 2008-02-05 | 2013-08-14 | 日本電気株式会社 | ランドマーク検出装置および方法ならびにプログラム |
US8915692B2 (en) * | 2008-02-21 | 2014-12-23 | Harvest Automation, Inc. | Adaptable container handling system |
JP5024128B2 (ja) * | 2008-03-10 | 2012-09-12 | トヨタ自動車株式会社 | 移動ロボットの制御システム |
US20170185278A1 (en) | 2008-08-11 | 2017-06-29 | Icontrol Networks, Inc. | Automation system user interface |
US8346468B2 (en) | 2008-07-08 | 2013-01-01 | Sky-Trax Incorporated | Method and apparatus for collision avoidance |
US11258625B2 (en) | 2008-08-11 | 2022-02-22 | Icontrol Networks, Inc. | Mobile premises automation platform |
US11792036B2 (en) | 2008-08-11 | 2023-10-17 | Icontrol Networks, Inc. | Mobile premises automation platform |
US10530839B2 (en) | 2008-08-11 | 2020-01-07 | Icontrol Networks, Inc. | Integrated cloud system with lightweight gateway for premises automation |
US11758026B2 (en) | 2008-08-11 | 2023-09-12 | Icontrol Networks, Inc. | Virtual device systems and methods |
US11729255B2 (en) | 2008-08-11 | 2023-08-15 | Icontrol Networks, Inc. | Integrated cloud system with lightweight gateway for premises automation |
US8855819B2 (en) * | 2008-10-09 | 2014-10-07 | Samsung Electronics Co., Ltd. | Method and apparatus for simultaneous localization and mapping of robot |
US9628440B2 (en) | 2008-11-12 | 2017-04-18 | Icontrol Networks, Inc. | Takeover processes in security network integrated with premise security system |
US8939842B2 (en) | 2009-01-13 | 2015-01-27 | Meimadtek Ltd. | Method and system for operating a self-propelled vehicle according to scene images |
US8638211B2 (en) | 2009-04-30 | 2014-01-28 | Icontrol Networks, Inc. | Configurable controller and interface for home SMA, phone and multimedia |
KR101040957B1 (ko) * | 2009-07-27 | 2011-06-17 | 전자부품연구원 | 로봇의 위치 인식 방법 및 장치 |
US9504608B2 (en) * | 2009-07-29 | 2016-11-29 | Alcon Lensx, Inc. | Optical system with movable lens for ophthalmic surgical laser |
US8419721B2 (en) * | 2009-07-29 | 2013-04-16 | Alcon Lensx, Inc. | Optical system for ophthalmic surgical laser |
US8506559B2 (en) * | 2009-11-16 | 2013-08-13 | Alcon Lensx, Inc. | Variable stage optical system for ophthalmic surgical laser |
GB2475713A (en) * | 2009-11-27 | 2011-06-01 | Hochschule Bochum | Navigation / location system using location signals generated from light sources |
US8224516B2 (en) * | 2009-12-17 | 2012-07-17 | Deere & Company | System and method for area coverage using sector decomposition |
US8635015B2 (en) * | 2009-12-17 | 2014-01-21 | Deere & Company | Enhanced visual landmark for localization |
US20110153338A1 (en) * | 2009-12-17 | 2011-06-23 | Noel Wayne Anderson | System and method for deploying portable landmarks |
KR101326618B1 (ko) * | 2009-12-18 | 2013-11-08 | 한국전자통신연구원 | 이동체의 위치 인식 방법 및 장치와 그 위치 인식 시스템 및 위치 인식 식별기 |
US8508590B2 (en) * | 2010-03-02 | 2013-08-13 | Crown Equipment Limited | Method and apparatus for simulating a physical environment to facilitate vehicle operation and task completion |
US8538577B2 (en) * | 2010-03-05 | 2013-09-17 | Crown Equipment Limited | Method and apparatus for sensing object load engagement, transportation and disengagement by automated vehicles |
AU2011250886A1 (en) | 2010-05-10 | 2013-01-10 | Icontrol Networks, Inc | Control system user interface |
DE102010031629B4 (de) * | 2010-07-21 | 2015-06-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | System und Verfahren zum Ermitteln einer Position eines beweglichen Objekts, Anordnung von Allgemeinbeleuchtungs-LED und Lichtsensor für eine Positionsermittlung eines beweglichen Objekts |
US8836467B1 (en) | 2010-09-28 | 2014-09-16 | Icontrol Networks, Inc. | Method, system and apparatus for automated reporting of account and sensor zone information to a central station |
US11750414B2 (en) | 2010-12-16 | 2023-09-05 | Icontrol Networks, Inc. | Bidirectional security sensor communication for a premises security system |
US9147337B2 (en) | 2010-12-17 | 2015-09-29 | Icontrol Networks, Inc. | Method and system for logging security event data |
AU2012243484B2 (en) | 2011-04-11 | 2014-10-30 | Crown Equipment Corporation | Method and apparatus for efficient scheduling for multiple automated non-holonomic vehicles using a coordinated path planner |
CN102183959B (zh) * | 2011-04-21 | 2013-08-07 | 深圳市银星智能科技股份有限公司 | 移动机器人的自适应路径控制方法 |
US8655588B2 (en) | 2011-05-26 | 2014-02-18 | Crown Equipment Limited | Method and apparatus for providing accurate localization for an industrial vehicle |
US8548671B2 (en) | 2011-06-06 | 2013-10-01 | Crown Equipment Limited | Method and apparatus for automatically calibrating vehicle parameters |
US8589012B2 (en) | 2011-06-14 | 2013-11-19 | Crown Equipment Limited | Method and apparatus for facilitating map data processing for industrial vehicle navigation |
US8594923B2 (en) | 2011-06-14 | 2013-11-26 | Crown Equipment Limited | Method and apparatus for sharing map data associated with automated industrial vehicles |
KR102111000B1 (ko) | 2011-08-25 | 2020-05-14 | 코넬 유니버시티 | 머신 비전용 망막 인코더 |
US20140058634A1 (en) * | 2012-08-24 | 2014-02-27 | Crown Equipment Limited | Method and apparatus for using unique landmarks to locate industrial vehicles at start-up |
US9056754B2 (en) | 2011-09-07 | 2015-06-16 | Crown Equipment Limited | Method and apparatus for using pre-positioned objects to localize an industrial vehicle |
KR101366860B1 (ko) * | 2011-09-20 | 2014-02-21 | 엘지전자 주식회사 | 이동 로봇 및 이의 제어 방법 |
US9147173B2 (en) | 2011-10-31 | 2015-09-29 | Harvest Automation, Inc. | Methods and systems for automated transportation of items between variable endpoints |
US8676425B2 (en) | 2011-11-02 | 2014-03-18 | Harvest Automation, Inc. | Methods and systems for maintenance and other processing of container-grown plants using autonomous mobile robots |
US8937410B2 (en) | 2012-01-17 | 2015-01-20 | Harvest Automation, Inc. | Emergency stop method and system for autonomous mobile robots |
US8852177B2 (en) | 2012-03-09 | 2014-10-07 | Alcon Lensx, Inc. | Spatio-temporal beam modulator for surgical laser systems |
US10182943B2 (en) | 2012-03-09 | 2019-01-22 | Alcon Lensx, Inc. | Adjustable pupil system for surgical laser systems |
US8744662B2 (en) * | 2012-05-07 | 2014-06-03 | Joseph Y. Ko | Method for operating autonomous moving cleaning apparatus |
CN102662400A (zh) * | 2012-05-10 | 2012-09-12 | 慈溪思达电子科技有限公司 | 割草机器人的路径规划算法 |
US9044863B2 (en) | 2013-02-06 | 2015-06-02 | Steelcase Inc. | Polarized enhanced confidentiality in mobile camera applications |
US9928975B1 (en) | 2013-03-14 | 2018-03-27 | Icontrol Networks, Inc. | Three-way switch |
US9867143B1 (en) | 2013-03-15 | 2018-01-09 | Icontrol Networks, Inc. | Adaptive Power Modulation |
US9287727B1 (en) | 2013-03-15 | 2016-03-15 | Icontrol Networks, Inc. | Temporal voltage adaptive lithium battery charger |
KR101319045B1 (ko) * | 2013-05-24 | 2013-10-17 | 한경대학교 산학협력단 | 무인 화물 이송로봇 |
EP3031206B1 (de) | 2013-08-09 | 2020-01-22 | ICN Acquisition, LLC | Fernüberwachungssystem, -verfahren und -vorrichtung |
US11405463B2 (en) | 2014-03-03 | 2022-08-02 | Icontrol Networks, Inc. | Media content management |
US11146637B2 (en) | 2014-03-03 | 2021-10-12 | Icontrol Networks, Inc. | Media content management |
KR101830249B1 (ko) * | 2014-03-20 | 2018-03-29 | 한국전자통신연구원 | 이동체의 위치 인식 장치 및 방법 |
EP2933065A1 (de) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Humanoider Roboter mit autonomer Lebensfähigkeit |
US9494934B2 (en) * | 2014-06-06 | 2016-11-15 | Amazon Technologies, Inc. | Robotic communication with fiber-optics |
US9152149B1 (en) | 2014-06-06 | 2015-10-06 | Amazon Technologies, Inc. | Fiducial markers with a small set of values |
KR101638679B1 (ko) | 2014-06-25 | 2016-07-11 | 제주대학교 산학협력단 | 자율주행 및 위치기반 자율안내가 가능한 옥외용 범용 안내 로봇장치 |
CN105563449B (zh) * | 2014-10-13 | 2017-10-24 | 航天科工智能机器人有限责任公司 | 一种移动机器人道路跟随方法 |
US9757002B2 (en) | 2015-03-06 | 2017-09-12 | Wal-Mart Stores, Inc. | Shopping facility assistance systems, devices and methods that employ voice input |
WO2016142794A1 (en) | 2015-03-06 | 2016-09-15 | Wal-Mart Stores, Inc | Item monitoring system and method |
US20180099846A1 (en) | 2015-03-06 | 2018-04-12 | Wal-Mart Stores, Inc. | Method and apparatus for transporting a plurality of stacked motorized transport units |
KR102489987B1 (ko) | 2015-04-20 | 2023-01-17 | 코넬 유니버시티 | 차원 데이터 축소를 이용하는 머신 비전 |
WO2017118001A1 (zh) * | 2016-01-04 | 2017-07-13 | 杭州亚美利嘉科技有限公司 | 用于机器人场地回流的方法和装置 |
US10471611B2 (en) | 2016-01-15 | 2019-11-12 | Irobot Corporation | Autonomous monitoring robot systems |
CN105554472B (zh) * | 2016-01-29 | 2019-02-22 | 西安电子科技大学 | 覆盖环境的视频监控系统及其定位机器人的方法 |
CA2961938A1 (en) | 2016-04-01 | 2017-10-01 | Wal-Mart Stores, Inc. | Systems and methods for moving pallets via unmanned motorized unit-guided forklifts |
US10054951B2 (en) * | 2016-05-25 | 2018-08-21 | Fuji Xerox Co., Ltd. | Mobile robot indoor localization and navigation system and method |
KR102000067B1 (ko) * | 2017-01-16 | 2019-09-17 | 엘지전자 주식회사 | 이동 로봇 |
US11221497B2 (en) | 2017-06-05 | 2022-01-11 | Steelcase Inc. | Multiple-polarization cloaking |
US10100968B1 (en) * | 2017-06-12 | 2018-10-16 | Irobot Corporation | Mast systems for autonomous mobile robots |
US10638906B2 (en) * | 2017-12-15 | 2020-05-05 | Neato Robotics, Inc. | Conversion of cleaning robot camera images to floorplan for user interaction |
KR101876702B1 (ko) * | 2018-02-19 | 2018-07-09 | 한국수력원자력 주식회사 | 퇴적물 높이 측정시스템 |
US11106124B2 (en) | 2018-02-27 | 2021-08-31 | Steelcase Inc. | Multiple-polarization cloaking for projected and writing surface view screens |
US11491643B2 (en) | 2018-03-14 | 2022-11-08 | Fedex Corporate Services, Inc. | Methods of performing a dispatched consumer-to-store logistics operation related to an item being replaced using a modular autonomous bot apparatus assembly and a dispatch server |
CN110956660B (zh) * | 2018-09-26 | 2023-10-10 | 深圳市优必选科技有限公司 | 定位方法、机器人以及计算机存储介质 |
CN111291952A (zh) * | 2018-12-07 | 2020-06-16 | 杭州钧工机器人科技有限公司 | 智能点餐送餐系统 |
US11110595B2 (en) | 2018-12-11 | 2021-09-07 | Irobot Corporation | Mast systems for autonomous mobile robots |
WO2020129992A1 (ja) * | 2018-12-17 | 2020-06-25 | Groove X株式会社 | ロボットと、ロボットのための充電ステーションおよびランドマーク装置 |
KR102166326B1 (ko) * | 2018-12-21 | 2020-10-15 | 충북대학교 산학협력단 | 드론의 3차원 경로 설정 시스템 |
CN109855603B (zh) * | 2019-01-31 | 2019-12-13 | 金钱猫科技股份有限公司 | 一种聚焦测量方法及终端 |
US11537137B2 (en) * | 2019-06-18 | 2022-12-27 | Lg Electronics Inc. | Marker for space recognition, method of moving and lining up robot based on space recognition and robot of implementing thereof |
CN110274599A (zh) * | 2019-06-26 | 2019-09-24 | 皖西学院 | 一种基于多深度摄像头的移动机器人室内定位系统及方法 |
CN110262495B (zh) * | 2019-06-26 | 2020-11-03 | 山东大学 | 可实现移动机器人自主导航与精确定位的控制系统及方法 |
US20210405646A1 (en) * | 2019-07-03 | 2021-12-30 | Lg Electronics Inc. | Marker, method of moving in marker following mode, and cart-robot implementing method |
WO2022110159A1 (zh) * | 2020-11-30 | 2022-06-02 | 深圳市大疆创新科技有限公司 | 定位方法、装置、可移动平台、地标及地标阵列 |
CN113253726B (zh) * | 2021-05-13 | 2023-01-24 | 金陵科技学院 | 一种物联网下的磁导航机器人及导航调度系统 |
CN113386150A (zh) * | 2021-06-11 | 2021-09-14 | 山东新一代信息产业技术研究院有限公司 | 一种小区智能巡检服务机器人系统 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE454389B (sv) | 1985-04-22 | 1988-04-25 | Bt Carrago Ab | Positioneringssystem for i parallella plan inbordes rorliga enheter |
FR2590681B1 (fr) | 1985-11-27 | 1988-06-24 | Alcatel Espace | Systeme de localisation d'un objet muni d'au moins une mire passive. |
FR2605416B1 (fr) | 1986-10-15 | 1988-12-02 | Lmt Radio Professionelle | Procede d'identification iff de champ de bataille et systeme iff de mise en oeuvre |
US4933864A (en) * | 1988-10-04 | 1990-06-12 | Transitions Research Corporation | Mobile robot navigation employing ceiling light fixtures |
US5279309A (en) * | 1991-06-13 | 1994-01-18 | International Business Machines Corporation | Signaling device and method for monitoring positions in a surgical operation |
US5477459A (en) * | 1992-03-06 | 1995-12-19 | Clegg; Philip M. | Real time three-dimensional machine locating system |
US5491670A (en) * | 1993-01-21 | 1996-02-13 | Weber; T. Jerome | System and method for sonic positioning |
EP0662618A1 (de) * | 1994-01-10 | 1995-07-12 | Charlatte | Verfahren und Vorrichtung zur Lokalisierung eines beweglichen Objekts |
US5974348A (en) * | 1996-12-13 | 1999-10-26 | Rocks; James K. | System and method for performing mobile robotic work operations |
US6198230B1 (en) * | 1998-04-15 | 2001-03-06 | Talking Lights | Dual-use electronic transceiver set for wireless data networks |
JP2000056006A (ja) | 1998-08-14 | 2000-02-25 | Minolta Co Ltd | 移動体の位置認識装置 |
US6266142B1 (en) * | 1998-09-21 | 2001-07-24 | The Texas A&M University System | Noncontact position and orientation measurement system and method |
JP2001142532A (ja) | 1999-11-12 | 2001-05-25 | Nippon Signal Co Ltd:The | 移動体の位置検出装置 |
US6216087B1 (en) * | 1999-11-23 | 2001-04-10 | Xerox Corporation | Infrared beacon positioning system |
US7038584B2 (en) * | 2000-03-31 | 2006-05-02 | Ge Medical Systems Information Technologies, Inc. | Object location monitoring within buildings |
US6629028B2 (en) * | 2000-06-29 | 2003-09-30 | Riken | Method and system of optical guidance of mobile body |
JP2002062149A (ja) * | 2000-08-23 | 2002-02-28 | Matsushita Electric Ind Co Ltd | 車載用位置算出装置 |
JP2002073170A (ja) | 2000-08-25 | 2002-03-12 | Matsushita Electric Ind Co Ltd | 移動作業ロボット |
KR100632242B1 (ko) | 2000-11-22 | 2006-10-11 | 삼성광주전자 주식회사 | 모빌로봇의 경로보정방법 |
US6807478B2 (en) * | 2001-12-27 | 2004-10-19 | Koninklijke Philips Electronics N.V. | In-building navigation system |
US7015831B2 (en) * | 2002-12-17 | 2006-03-21 | Evolution Robotics, Inc. | Systems and methods for incrementally updating a pose of a mobile device calculated by visual simultaneous localization and mapping techniques |
-
2003
- 2003-01-11 KR KR10-2003-0001828A patent/KR100506533B1/ko active IP Right Grant
-
2004
- 2004-01-08 DE DE602004011408T patent/DE602004011408T2/de not_active Expired - Lifetime
- 2004-01-08 EP EP04250058A patent/EP1437636B1/de not_active Expired - Fee Related
- 2004-01-09 US US10/753,403 patent/US7613544B2/en not_active Expired - Fee Related
- 2004-01-13 JP JP2004006104A patent/JP4115946B2/ja not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011108579A1 (de) * | 2011-07-27 | 2013-01-31 | Sew-Eurodrive Gmbh & Co. Kg | Anlage, aufweisend Mobilteile, und Verfahren zum Übertragen von Information bei einer Anlage |
DE102011108579B4 (de) | 2011-07-27 | 2020-04-23 | Sew-Eurodrive Gmbh & Co Kg | Anlage, aufweisend Mobilteile, und Verfahren zum Übertragen von Information bei einer Anlage |
Also Published As
Publication number | Publication date |
---|---|
EP1437636A1 (de) | 2004-07-14 |
KR20040064930A (ko) | 2004-07-21 |
US20040202351A1 (en) | 2004-10-14 |
KR100506533B1 (ko) | 2005-08-05 |
EP1437636B1 (de) | 2008-01-23 |
JP4115946B2 (ja) | 2008-07-09 |
JP2004216552A (ja) | 2004-08-05 |
US7613544B2 (en) | 2009-11-03 |
DE602004011408D1 (de) | 2008-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE602004011408T2 (de) | Mobiler Roboter, sowie System und Verfahren zur autonomen Navigation eines solchen Roboters | |
DE60216411T2 (de) | Robotervorrichtung, gesichtserkennungsverfahren und gesichtserkennungsvorrichtung | |
DE602004008131T2 (de) | Automatisches Arbeitsgerät und automatisches Arbeitskontrollprogramm | |
DE60222449T2 (de) | Mobile objektverfolgung | |
DE4217093C1 (de) | ||
EP2189955B1 (de) | Sensornetzwerksystem, Übertragungsprotokoll, Verfahren zum Wiedererkennen eines Objekts sowie Computerprogramm | |
DE10145150B4 (de) | Verfahren zur Einstellung eines Kurses eines mobilen Roboters | |
DE10323225A1 (de) | Ortsmarkenerfassungsverfahren für eine Roboterreinigungsvorrichtung und das Verfahren verwendende Roboterreinigungsvorrichtung | |
DE102015015638A1 (de) | Vorrichtung und Verfahren zum Übertragen von Artikeln unter Verwendung eines Roboters | |
DE102019114796A1 (de) | Führungssystem und -verfahren für autonome fahrzeuge | |
DE10200394A1 (de) | Reinigungsroboter sowie diesen verwendendes System und Verfahren zur Wiederverbindung mit einer externen Nachladevorrichtung | |
EP1373993A2 (de) | Roboterintelligenz in naturlichen umgebungen | |
DD228096A5 (de) | Verfahren und vorrichtung zur automatischen fuehrung von fahzeugen, insbesondere von fahrerlosen elektrokarren | |
EP3333116A1 (de) | Verfahren zur automatischen ausrichtung eines flurförderzeugs in einem warenlager sowie system aus einem flurförderzeug und einem warenlager | |
EP3482622A1 (de) | Verfahren zur automatischen führung eines fahrzeugs entlang eines virtuellen schienensystems | |
EP3457161A1 (de) | Verfahren und anordnung zum lokalisieren und/oder bewegen eines objekts in einer umgebung | |
DE102017211839A1 (de) | Steuersystem für ein Agrararbeitssystem, Arbeitssystem, Verwendung | |
EP3559773B1 (de) | Verfahren zur navigation und selbstlokalisierung eines sich autonom fortbewegenden bearbeitungsgerätes | |
DE60306389T2 (de) | Verfahren zur Bildung von Druckkontrolldaten | |
WO2019057679A1 (de) | Verfahren und robotersystem zum anpassen eines robotereinsatzes an einen arbeitsprozess | |
DE102021114265A1 (de) | Robotervorrichtung eingerichtet zur Ermittlung einer Zielobjektlage eines vorbestimmten Zielobjekts und Verfahren | |
EP3812869A1 (de) | Verfahren zur erstellung einer umgebungskarte für ein sich selbsttätig fortbewegendes bodenbearbeitungsgerät, sowie system aus zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten | |
DE102020214249A1 (de) | Verfahren zum Bereitstellen von Navigationsdaten zum Steuern eines Roboters, Verfahren zum Steuern eines Roboters, Verfahren zum Herstellen zumindest eines vordefinierten punktsymmetrischen Bereichs und Vorrichtung | |
EP3848770A1 (de) | Verfahren zum betrieb eines systems mit zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten sowie system zur durchführung eines solchen verfahrens | |
DE112020002957T5 (de) | Verbesserte Steuersignalerkennung für eine Roboterarbeitsvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8381 | Inventor (new situation) |
Inventor name: PARK, DONG-RYEOL, GIHEUNG-EUP YONGIN-SI GYEONG, KR Inventor name: BANG, SEOK-WON, GANGNAM-GU, KR |
|
8364 | No opposition during term of opposition |