DE602004011408T2 - Mobiler Roboter, sowie System und Verfahren zur autonomen Navigation eines solchen Roboters - Google Patents

Mobiler Roboter, sowie System und Verfahren zur autonomen Navigation eines solchen Roboters Download PDF

Info

Publication number
DE602004011408T2
DE602004011408T2 DE602004011408T DE602004011408T DE602004011408T2 DE 602004011408 T2 DE602004011408 T2 DE 602004011408T2 DE 602004011408 T DE602004011408 T DE 602004011408T DE 602004011408 T DE602004011408 T DE 602004011408T DE 602004011408 T2 DE602004011408 T2 DE 602004011408T2
Authority
DE
Germany
Prior art keywords
mobile robot
light source
light sources
camera
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE602004011408T
Other languages
English (en)
Other versions
DE602004011408D1 (de
Inventor
Dong-Ryeol Park
Seok-Won Bang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of DE602004011408D1 publication Critical patent/DE602004011408D1/de
Application granted granted Critical
Publication of DE602004011408T2 publication Critical patent/DE602004011408T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons

Description

  • Die vorliegende Erfindung betrifft im Allgemeinen einen mobilen Roboter sowie ein System und ein Verfahren zur autonomen Navigation von selbem und insbesondere einen mobilen Roboter sowie ein System und ein Verfahren zur autonomen Navigation von selbem, in welchem der mobile Roboter das Flackern von Licht-Quellen einer charakteristischen Matrix (Zeichenanordnung) steuert, die in einem Arbeitsabstand angeordnet ist, und der seine Position unter Verwendung von einer oder mehreren flackernden Licht-Quellen bestimmt, wodurch die autonome Navigation des mobilen Roboters ermöglicht wird.
  • Im Allgemeinen sollte ein autonomer mobiler Roboter präzise seine laufende Pose erkennen und sich von seiner laufenden Position zu einer Ziel-Position (Zielort) bewegen, um sich frei über ein bestimmtes Gebiet bewegen zu können. Zu diesem Zweck wird eine bestimmte charakteristische Matrix eingesetzt, also ein Mittel zum Bereitstellen von Weltkoordinaten, um dem mobilen Roboter zu erlauben, seine derzeitige Position zu erkennen. Der mobile Roboter erkennt die charakteristische Matrix, die in einem bestimmten Arbeitsabstand angeordnet ist durch die Signalverarbeitung eines Bildes, das durch eine Kamera aufgenommen wird, und bestimmt seine derzeitige Position unter Verwendung der erkannten charakteristischen Matrix.
  • Solch eine charakteristische Matrix kann konzipiert werden in verschiedenerlei Mustern. Im Allgemeinen wird ein bestimmtes geometrisches Muster, wie z. B. ein Kreis bzw. eine Kette, eingesetzt als die Form der charakteristischen Matrix.
  • Dementsprechend extrahiert der mobile Roboter das bestimmte Muster einer charakteristischen Matrix aus einem Bildsignal für einen Arbeitsraum. In diesem Fall ist der Prozess zum Extrahieren des Musters der charakteristischen Matrix aus dem Bildsignal stark beeinflusst durch äußere Umweltfaktoren wie z. B. die Beleuchtung eines Arbeitsraums, der durch eine Kamera aufgenommen wird.
  • Das heißt, das Erkennen des Musters der charakteristischen Matrix eines Bildes, aufgenommen durch eine Kamera, wird durch äußere Faktoren wie z. B. die Beleuchtung, die Formen der ausgeformten Objekte, die Muster von Tapeten, etc. beeinflusst. Dementsprechend wird der Betriebs-Prozess des Erkennens des Musters der charakteristischen Matrix weiter kompliziert.
  • Darüber hinaus ist es, da eine relativ lange Verarbeitungszeit benötigt wird, um die Position des mobilen Roboters unter Verwendung der charakteristischen Matrix zu erkennen, aufgrund des komplizierten Betriebs-Prozesses, schwierig, dass die autonome Navigation des mobilen Roboters in Echtzeit durchgeführt wird.
  • Des Weiteren ist es in der Netzwerkumgebung eines Hauses, welche entwickelt worden ist und weitgehend implementiert ist, in welchem alle Heimanwendungen gesteuert werden unter Verwendung eines mobilen Roboters, nicht wünschenswert mit Blick auf das Erscheinungsbild, ein bestimmtes Muster einer charakteristischen Matrix im Inneren eines Hauses zu installieren.
  • Folglich gab es den Bedarf für einen mobilen Roboter und ein System zur autonomen Navigation des mobilen Roboters, das in der Lage ist zur autonomen Bewegung durch die Verwendung einer charakteristischen Matrix, anwendbar ist auf eine Netzwerkumgebung eines Hauses und geeignet ist für die Anwendung des tatsächlichen Lebens, aufgrund der Adaptierbarkeit an Variationen einer äußeren Umwelt, wie z. B. die Beleuchtung.
  • EP 662618 beschreibt ein System zum Lokalisieren eines mobilen Objektes. Das mobile Objekt überträgt ein Beleuchtungs-Signal und jegliche Art von Lichtsignal, welches das Signal aufnimmt, überträgt einen Code, beispielsweise unter Verwendung einer infraroten Kommunikation. Das mobile Objekt nimmt den Code auf und decodiert ihn und eine Kamera zeichnet ein Bild auf. Eine Kombination des Bildes und des decodierten Codes wird dann verwendet, um das mobile Objekt zu lokalisieren.
  • US 5,491,607 beschreibt ein ähnliches System, welches Schallgeräusche detektieren kann.
  • In einem ersten Aspekt stellt die vorliegende Erfindung einen mobilen Roboter zur Verfügung entsprechend zu Anspruch 1.
  • Vorzugsweise kann der mobile Roboter des Weiteren ein Speicher-Modul zum Speichern der Weltkoordinaten der Licht-Quellen umfassen, von Raumkoordinaten des mobilen Roboters in dem Arbeitsraum und Parametern, die durch Kamera-Kalibrierung zum Kompensieren der Verzeichnung eines Objekts der Kamera-Linse berechnet werden.
  • Die Kamera kann ausgerüstet sein mit einem Filter zum Filtern einer bestimmten Wellenlänge der Licht-Quelle.
  • In einem zweiten Aspekt stellt die vorliegende Erfindung ein System für die autonome Navigation eines mobilen Roboters zur Verfügung, das eine charakteristische Matrix (eine Zeichenanordnung) einschließt, die eine Vielzahl von Licht-Quellen umfasst, die in einem bestimmten Bereich angeordnet sind, um selektiv zu flackern, ein Steuer-Modul der charakteristischen Matrix zum Steuern des Flackerns der Licht-Quellen der charakteristischen Matrix sowie einen mobilen Roboter, der ausgerüstet ist mit einem Pose-Berechnungs-Modul zum selektiven Steuern des Flackerns der Licht-Quellen der charakteristischen Matrix durch Übertragen eines Steuersignals einer Licht-Quelle auf das Steuer-Modul der charakteristischen Matrix und Erkennen einer Pose des mobilen Roboters unter Verwendung der flackernden Licht-Quellen.
  • Darüber hinaus stellt die vorliegende Erfindung ein Verfahren zur Verfügung zur autonomen Navigation eines mobilen Roboters, das den ersten Schritt umfasst, in dem der mobile Roboter selektiv das Flackern des Flackerns der Licht-Quellen charakteristischen Matrix, angeordnet über einen bestimmten Arbeitsraum, steuert, den zweiten Schritt des Extrahierens von Bild-Koordinaten der Licht-Quellen durch Erfassen einer Licht-Quelle, die so gesteuert wird, dass sie aus einem von der Kamera eingegebenen Bildsignal flackert, und den dritten Schritt des Berechnens einer aktuellen Position des mobilen Roboters unter Bezugnahme auf die Bild-Koordinaten und die zuvor gespeicherten Weltkoordinaten der Licht-Quellen.
  • Dementsprechend stellt die vorliegende Erfindung einen mobilen Roboter zur Verfügung und ein System sowie ein Verfahren zur autonomen Navigation von selbigem, in welchem der mobile Roboter seine Position bestimmen kann durch Steuern des Flackerns der Licht-Quellen des charakteristischen Arrays, angeordnet in einem Arbeitsraum und sich autonom zu einem Zielort bewegen kann, basierend auf der bestimmten Position.
  • Die vorliegende Erfindung stellt des Weiteren einen mobilen Roboter zur Verfügung und ein System sowie ein Verfahren für die autonome Navigation von selbem, mit welchem der mobile Roboter in der Lage ist, in effizienter Art und Weise seine Pose (Position und Steuerkurswinkel) zu berechnen durch Auswählen einer Licht-Quelle, die geeignet ist für die Berechnung der Position unter Verweis auf die zuvor gespeicherten Weltkoordinaten der Licht-Quellen einer charakteristischen Matrix.
  • Die vorliegende Erfindung stellt auch ein Mittel zur Verfügung zum Bereitstellen von Weltkoordinaten zur autonomen Navigation eines mobilen Roboters, welches eine Vielzahl von Licht-Quellen verwendet mit einer bestimmten Wellenlänge, also eine charakteristische Matrix, und so geeignet ist für eine Netzwerkumgebung zu Hause.
  • Die oben genannten und weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden klarer verständlich aus der folgenden detaillierten Beschreibung, die zusammen mit den beigefügten Zeichnungen genommen wird, in welchen:
  • 1 eine schematische Ansicht ist, die die Konstruktion zeigt eines Systems zur autonomen Navigation eines mobilen Roboters entsprechend einer Ausführungsform der vorliegenden Erfindung;
  • 2 ein Flussdiagramm ist, welches ein Verfahren zeigt zur autonomen Navigation eines mobilen Roboters entsprechend einer Ausführungsform der vorliegenden Erfindung;
  • 3 eine perspektivische Ansicht ist einer charakteristischen Matrix, angeordnet in einem Arbeitsraum eines mobilen Roboters entsprechend einer Ausführungsform der vorliegenden Erfindung;
  • 4 eine perspektivische Ansicht ist eines mobilen Roboters, der an eine bestimmte Position bewegt worden ist, entsprechend einer Ausführungsform der vorliegenden Erfindung;
  • 5 ein Flussdiagramm ist, welches den Prozess zeigt des Bestimmens einer ursprünglichen Position entsprechend einer Ausführungsform der vorliegenden Erfindung; und
  • 6 ein Flussdiagramm ist, welches den Prozess des Berechnens der Position des mobilen Roboters entsprechend einer Ausführungsform der vorliegenden Erfindung zeigt.
  • Nun sollte verwiesen werden auf die Zeichnungen, in welchen die gleichen Referenzziffern über die verschiedenen Zeichnungen verwendet werden, um selbige oder ähnliche Komponenten zu bezeichnen.
  • Die Konstruktion sowie der Betrieb des mobilen Roboters sowie ein System und ein Verfahren zur autonomen Navigation des selben entsprechend der vorliegenden Erfindung werden beschrieben im Detail unter Verweis auf die beigefügten Zeichnungen.
  • Wie in 1 gezeigt, schließt das System zur autonomen Navigation des mobilen Roboters eine charakteristische Matrix 100, ein Steuer-Modul für die charakteristische Matrix 300 sowie einen mobilen Roboter 500 ein.
  • Die charakteristische Matrix 100 besteht aus einer Vielzahl von Licht-Quellen, welche über einem bestimmten Bereich angeordnet sind und flackern können. Die Licht-Quellen werden ausgebildet aus Licht emittierenden Vorrichtungen, einschließend elektrolumineszente Vorrichtungen, wie z. B. organische elektrolumineszente Vorrichtungen, anorganisch elektrolumineszente Vorrichtungen oder Licht emittierende Dioden (LEDs Light emitting Diodes), welche Licht mit einer bestimmten Wellenlänge und einer bestimmten Helligkeit emittieren.
  • Inzwischen werden die Licht-Quellen jeweils mit Positions-Information umfassend eine spezifische Identifikationsziffer und Weltkoordinaten in einem Arbeitsraum, in welchem die charakteristische Matrix angeordnet ist, bestückt.
  • Das Steuer-Modul für die charakteristische Matrix 300 steuert korrespondierende Licht-Quellen der charakteristischen Matrix 100, damit sie als Antwort auf das flackernde Steuersignal, übertragen von dem mobilen Roboter 500 zu flackern. Das Steuer-Modul für die charakteristische Matrix 300 schließt einen Anschlussknoten (AP, Access Point) 301 ein, die eine der Komponentenvorrichtungen ist, die ein drahtloses lokales Flächen-Netzwerk konstituieren und das Licht-Quellen-Steuer-Signal aufnimmt und verarbeitet, das von dem mobilen Roboter 500 übertragen wird, sowie eine Lichtsignal-Steuer-Einheit 302, welche die korrespondierenden Licht-Quellen steuert, so dass sie als Antwort auf die Licht-Quellen-Steuer-Signal-Eingabe von dem Anschlussknoten 301 flackern.
  • Der mobile Roboter 500 ist so konzipiert, dass er ein Pose-Berechnungs-Modul 504 einschließt, welches selektiv das Flackern der Licht-Quellen der charakteristischen Matrix 100 einschließt, durch Übertragen eines Licht-Quellen-Steuer-Signals an das Steuer-Modul des charakteristischen Arrays 300 und die Position davon erkennt unter Verwendung der flackernden Licht-Quellen, wodurch eine autonome Navigation ermöglicht wird. Der mobile Roboter 500 schließt des Weiteren ein Haupt-Steuer-Modul 501 ein, ein Kommunikations-Modul 502, ein Bildverarbeitungs-Modul 503, ein Bewegungs-Steuer-Modul 505 und ein Speicher-Modul 506.
  • Das Haupt-Steuer-Modul 501 steuert alle Betriebsabläufe der Positionsberechnung unter Bewegung entsprechend einem Betriebs-Management-Algorithmus für die autonome Navigation des mobilen Roboters 500 sowie die Funktionen, um die Inter-Operationen der entsprechenden Module zu steuern.
  • Das Kommunikations-Modul 502 überträgt ein Lichtquell-Steuer-Signal, um die Licht-Quellen der charakteristischen Matrix 100 zu steuern, so dass sie unter der Betriebs-Steuerung des Haupt-Steuer-Modul 501 flackern. Und die zuvor gespeicherten Weltkoordinaten der Licht-Quelle werden durch das Kommunikations-Modul 502 referenziert. Drahtlose Kommunikationen, durchgeführt, um Lichtquell-Steuer-Signal zwischen dem Zugangsknoten 301 und dem Kommunikations-Modul 502 zu übertragen/aufzunehmen, sind in solch einer Art implementiert, dass der Zugangsknoten 301 und das Kommunikations-Modul 502 neu bestückt sind mit Frequenzen einer hohen Bandbreite und übertragen/empfangen Daten über die zugeordneten Frequenzen.
  • Des Weiteren können solche drahtlosen Kommunikationen implementiert werden durch drahtlose Kommunikations-Protokolle wie z. B. Infrarot-Daten-Verband (IrDA Infrared Data Association), unter Verwendung von infraroter Strahlung oder Bluetooth, d. h. einer drahtlosen Kommunikations-Technologie im lokalen Bereich.
  • Das Bild-Verarbeitungs-Modul 503 verarbeitet ein Signal, um Merkmals-Punkte der spezifizierten Licht-Quelle nachzuweisen, gesteuert, um über das Kommunikations-Modul 502 von einem Bildsignal, erhalten durch eine Kamera, zu flackern. Das Bildverarbeitungs-Modul 503 schließt eine Kamera ein (nicht gezeigt), die ausgestattet ist mit einem Filter zum Filtern des Bildsignals, basierend auf der Wellenlänge der Licht-Quellen, sowie eine Signal-Verarbeitungs-Einheit (nicht gezeigt) zum Nachweis von Merkmals-Punkten, die mit der Wellenlänge der Licht-Quellen des Bildsignals korrespondieren, das durch die Kamera gefiltert wird, und zum Extrahieren der Koordinaten der empfangenen Merkmals-Punkte (im folgenden hier als "Bild-Koordinaten" bezeichnet).
  • Das Verfahren zum Erkennen von Merkmals-Punkten, die mit einer Wellenlänge der Licht-Quellen korrespondieren, in der Signal-Prozess-Einheit sowie das Extrahieren der Bild-Koordinaten kann durch Schwellenwert-Technologie und eine Gruppierungs- & Labelings-Technologie (4-connectivity) (Digital Image Processing; Rafael C. Gonzales, Richard E. Wodds, Addison Wesley) implementiert werden. Dieses Verfahren wird durchgeführt durch Binärisierung des Bild-Signals, gefiltert unter Verwendung der Wellenlänge der Licht-Quellen, Extrahieren eines Abschnittes, auf welchem Pixel mit einem Wert von gleich oder größer im Vergleich zu einem bestimmten Wert (beispielsweise 50) miteinander verbunden werden, und welcher eine Graustufe von 255 aufweist, als die Region der Licht-Quelle, Nachweisen der Licht-Quelle durch Entfernen von Rausch-Komponenten aus der extrahier ten Region und Extrahieren der Bild-Koordinaten, basierend auf dem Schwerpunkts-Zentrum.
  • Das Pose-Berechnungs-Modul 504 berechnet die präzisen Koordinaten des mobilen Roboters 500 unter Verweis auf die Bild-Koordinaten für die spezifizierte Licht-Quelle, erhalten durch das Bild-Verarbeitungs-Modul 503 sowie die Weltkoordinaten für die bestimmte Licht-Quelle, erkannt durch das Speicher-Modul 506. Die Translation und Rotation des mobilen Roboters 500 werden berechnet durch Anwenden der Bild-Koordinaten und der Weltkoordinaten auf den spezifizierten Positions-Berechnungs-Algorithmus.
  • Der Positions-Berechnungs-Algorithmus konstruiert ein Extensions-Modell zum Erhalten der Translation und Rotation der Kamera unter Verwendung eines Weltkoordinaten-Systems sowie eines Kamera-Koordinaten-Systems und zum Erhalten einer bestimmten Translationsformel zum Berechnen einer Translation und Rotation der Kamera durch Anwenden des Extensions-Modells auf eine Formel zum Kompensieren für Verzeichnungen, verursacht durch die Linse der Kamera.
  • Das Pose-Berechnungs-Modul 504 bestimmt die derzeitige Pose des mobilen Roboters 500 durch Berechnen einer Translation, d. h. eines Abstandes, um welchen die Kamera (d. h., der mobile Roboter) von der spezifizierten Licht-Quelle entfernt ist, und einer Rotation relativ zur Licht-Quelle, durch Anwenden der Bild-Koordinaten und der Weltkoordinaten der Licht-Quelle auf die Transformations-Formel, erhalten durch den Pose-Berechnungs-Algorithmus.
  • Das Bewegungs-Steuer-Modul 505 steuert die Bewegung des mobilen Roboters 500 unter Verwendung von Steuerungs-Mitteln zum Steuern der Motoren der rechten und linken Räder, um so zu ermöglichen, dass der mobile Roboter 500 autonom bewegt wird. Das Bewegungs-Steuer-Modul 505 bestimmt einen Bewegungspfad, entlang dessen der Roboter 500 sich zu einem Zielort bewegt unter Verwendung der laufenden Positions-Koordinaten durch Abgleich der Ausgabe für Translation und Rotation des mobilen Roboters 500 aus dem Pose-Berechnungs-Modul 504 mit der Bereichs-Koordinaten-Information eines Arbeitsraumes, zuvor gespeichert in dem Speicher-Modul 506, und steuert den mobilen Roboter 500, so dass er sich entlang des bestimmten Bewegungs-Pfades bewegt.
  • Das Speicher-Modul 506 speichert einen Betriebs-Management-Algorithmus für die autonome Navigation des mobilen Roboters 500 und Information für den Betriebs-Management-Algorithmus. Das Speicher-Modul 506 speichert Parameter zum Kompensieren der Ver zeichnung der Linsen der Kamera, berechnet durch Kamera-Kalibration, der Weltkoordinaten der Licht-Quellen der charakteristischen Matrix 100 und der Koordinateninformation des Arbeitsraumes, über welchen der mobile Roboter 500 autonom navigiert wird.
  • Das Verfahren für die autonome Navigation des mobilen Roboters unter Verwendung des Systems für die autonome Navigation des mobilen Roboters entsprechend der vorliegenden Erfindung, wird im Detail beschrieben unter Verweis auf die beigefügten Zeichnungen.
  • Wie in 2 gezeigt, überträgt das Haupt-Steuer-Modul 501 des mobilen Roboters 500 ein Licht-Quellen-Steuersignal (ein Anschalt-Signal), um die spezifischen Licht-Quellen der charakteristischen Matrix 100 am Schritt S1 anzuschalten.
  • Wenn das Lichtquell-Steuer-Signal, übertragen von dem mobilen Roboter 500 durch den Zugangsknoten 301 des Steuer-Moduls der charakteristischen Matrix 300 durch den Knotenpunkt 301 des Steuer-Moduls der charakteristischen Matrix 300 empfangen wird, wird eine korrespondierende Licht-Quelle durch die Lichtquell-Steuer-Einheit 302 angeschaltet und das Bild-Verarbeitungs-Modul 503 des mobilen Roboters 500 bestimmt, ob die Licht-Quelle, gesteuert, um als Antwort auf das Lichtquell-Steuer-Signal zu flackern, durch Erkennen der Merkmals-Punkte der Licht-Quelle durch ein Bild-Signal, eingefangen durch die Kamera am Schritt S2 erkannt wird.
  • Falls die Licht-Quelle nicht erkannt wird als Ergebnis der Bestimmung des Schrittes S2, wird eine Licht-Quelle erkannt durch Auswahl einer benachbarten Licht-Quelle unter Verweis auf die Weltkoordinaten der Licht-Quellen der charakteristischen Matrix 100, zuvor gespeichert im Speicher-Modul 506, Übertragen eines Lichtquell-Steuer-Signal, um diese Licht-Quelle anzuschalten, und Bestimmen, ob die Licht-Quelle durch die Kamera am Schritt S3 erkannt wird.
  • Falls die Licht-Quelle als das Ergebnis der Bestimmung des Schrittes S3 erkannt wird, wird die derzeitige Position des mobilen Roboters 500 bestimmt unter Verwendung der Bild-Koordinaten der Licht-Quelle, erkannt durch die Kamera, und der Weltkoordinaten der Licht-Quelle, erkannt durch das Speicher-Modul 506 am Schritt S4.
  • Das Haupt-Steuer-Modul 501 des mobilen Roboters 500 bestimmt einen Bewegungspfad des mobilen Roboters 500 unter Verwendung der derzeitigen Weltkoordinaten, bestimmt durch den oben beschriebenen Schritt und steuert den mobilen Roboters 500, so dass er entlang des Bewegungspfades, bestimmt durch das Bewegungs-Steuer-Modul 505 bewegt wird.
  • Das Verfahren zur autonomen Navigation eines mobilen Roboters entsprechend der vorliegenden Erfindung wird im Detail beschrieben unter Verweis auf die beigefügten Zeichnungen.
  • Falls ein Gehäuse, ausgerüstet mit einem Heim-Automations-System, ausgewählt wird als Arbeitsraum des mobilen Roboters, werden die Licht-Quellen der charakteristischen Matrix 100 über das Gehäuse hinweg installiert, wie in 3 gezeigt wird, und so gesteuert, dass sie durch das Steuer-Modul der charakteristischen Matrix 300, bereitgestellt in dem Server des Heim-Automatisierungs-Systems, flackern.
  • Wenn die Licht-Quelle in dem Stadium angeschaltet wird, wo der mobile Roboter 500 in eine zufällige Position in dem Arbeitsraum des mobilen Roboters 500 bewegt wird, wie in 4 gezeigt wird, bestimmt der mobile Roboter 500 grob die laufende Position davon durch einen Initialisierungs-Prozess und berechnet präzise die derzeitige Position davon durch einen Lokalisierungs-Prozess.
  • Der Initialisierungs-Prozess ist ein Prozess der Bestimmung der ursprünglichen Position des mobilen Roboters, wenn Energie auf den mobilen Roboter übertragen wird, was durchgeführt wird, wie in 5 gezeigt ist.
  • Wenn Energie auf den mobilen Roboter 500 am Schritt S11 übertragen wird, steuert das Haupt-Steuer-Modul 501 des mobilen Roboters 500 sequentiell die Licht-Quellen der charakteristischen Matrix 100, so dass sie mit Blick auf die spezifische Lichtquelle und die Weltkoordinaten der Licht-Quellen der charakteristischen Matrix 100 am Schritt S12 flackern.
  • In dem Prozess des Steuerns der Licht-Quellen der charakteristischen Matrix 100, so dass sie sequentiell flackern, erkennt das Haupt-Steuer-Modul des mobilen Roboters 500 die Merkmals-Punkte der Licht-Quelle von einem Bildsignal, das durch die Kamera erhalten wird, unter Verwendung des Bild-Verarbeitungs-Moduls 503 und bestimmt, ob die Licht-Quelle, die gesteuert wird, so dass sie flackert, durch die Kamera am Schritt S13 erkannt wird.
  • Falls die Licht-Quelle nicht erkannt wird als Ergebnis der Bestimmung des Schrittes S13, wird der Prozess des Steuerns der Licht-Quellen der charakteristischen Matrix 100, so dass sie sequentiell nach Veränderung der Richtung der Kamera durch Rotation der Kamera flackern, und des Erkennens der Licht-Quelle unter Verwendung eines Bildes, erhalten durch die Kamera, wiederholt für eine eingestellte Zahl von Wiederholungen Max_Num am Schritt S14. Falls die Licht-Quelle nicht erkannt wird, nachdem der Prozess über eine zufällig eingestellte Zahl an Wiederholungen wiederholt worden ist, wird der Prozess als ein Fehler bestimmt durch Erzeugen eines Licht-Quell-Erkennungs-Fehler-Signals am Schritt S15.
  • Falls die Licht-Quelle erkannt wird als Ergebnis der Bestimmung des Schrittes S13, werden die Welt-Koordinaten der nachgewiesenen Licht-Quelle, gespeichert in dem Speicher-Modul 506, erkannt durch die Verwendung einer ID-Nummer der nachgewiesenen Licht-Quelle am Schritt S16 und die laufende Position des mobilen Roboters 500 wird grob sichergestellt durch die Verwendung der Welt-Koordinaten der erkannten Licht-Quelle am Schritt S17.
  • Beispielsweise in dem Fall, wo die Welt-Koordinaten der Licht-Quelle, sichergestellt durch die Verwendung der ID-Nummer der Licht-Quelle, nachgewiesen durch die Kamera während des Flackerns der Licht-Quelle der charakteristischen Matrix 100, die Positionsinformation eines Wohnzimmers ist, kann das hauptsächliche Steuer-Modul 501 des mobilen Roboters 500 grob sicherstellen, dass der mobile Roboter 500 in dem Wohnzimmer positioniert ist.
  • Wenn der Initiations-Prozess des mobilen Roboters 500 vollständig abgelaufen ist, führt das Steuer-Modul 501 des mobilen Roboters 500 einen Positions-Berechnungs-Prozess des Berechnens der präzisen Position des mobilen Roboters 500 mit Blick auf die grobe Positions-Information, erhalten durch den Initiations-Prozess, durch.
  • Der Positions-Berechnungs-Prozess wird durchgeführt, wie in 6 gezeigt ist. Zunächst setzt das hauptsächliche Steuer-Modul 501 des mobilen Roboters 500 die Anzahl der Licht-Quellen, die benötigt ist, um die präzise Position des mobilen Roboters 500 zu berechnen, auf eine bestimmte Zahl N.
  • Nachdem die Zahl der Lichtquellen N gesetzt wurde, um die präzise Position zu berechnen, werden N Licht-Quellen, die geeignet sind für die Positions-Berechnung, ausgewählt aus den Licht-Quellen, die in der Nähe der Licht-Quelle sind, erkannt während des Initiations- Prozesses am Schritt S21, und ein Licht-Quell-Steuer-Signal wird übertragen, um die ausgewählten N Licht-Quellen am Schritt S22 einzuschalten.
  • Beispielsweise können, wenn die während des Initiations-Prozesses erkannte Licht-Quelle eine Fünfte Licht-Quelle des Wohnzimmer ist, in dem Fall, wo die Anzahl der Licht-Quellen, benötigt zur Berechnung der Position des mobilen Roboters 500 auf 5 eingestellt ist, Licht-Quellen einer eingestellten Zahl, eingestellt um die Position zu berechnen, angeschaltet werden durch Anschalten von sowohl zwei Licht-Quellen auf der rechten Seite der fünften Licht-Quelle und zwei Licht-Quellen auf der linken Seite der fünften Licht-Quelle oder durch Einschalten von vier Licht-Quellen auf der rechten Seite der fünften Licht-Quelle oder vier Licht-Quellen auf der linken Seite der fünften Licht-Quelle.
  • Das Steuer-Modul der charakteristischen Matrix 300 schaltet eine korrespondierende Licht-Quelle als Antwort auf ein übertragenes Licht-Quell-Steuer-Signal an und das hauptsächliche Steuer-Modul 501 des mobilen Roboters 500 erkennt die Merkmals-Punkte der Licht-Quelle von einem Bild-Signal, erhalten durch die Kamera, unter Verwendung des Bild-Verarbeitungs-Moduls 503 und bestimmt, ob die N Licht-Quellen, angeschaltet, um die Position des Roboters 500 zu erkennen, am Schritt S23 erkannt werden.
  • Falls die N Licht-Quellen nicht erkannt werden als Ergebnis der Erkennung des Schrittes S24, wird bestimmt, ob die Zahl der Licht-Quellen erkannt durch die Kamera, gleich ist oder größer ist, als zwei im Schritt S24. Falls die Anzahl der erkannten Licht-Quellen weniger als zwei ist, wird eine Licht-Quelle, erkannt durch die Kamera, erkannt durch Auswählen und Flackern einer anderen Licht-Quelle am Schritt S22. Falls die Anzahl der Licht-Quellen, die erkannt wurden, zwei oder mehr ist am Schritt S24, werden die ID-Nummern der Licht-Quellen, erkannt durch die Kamera, bestimmt durch Steuern der Lichtquellen, so dass sie am Schritt S25 flackern.
  • Die Bild-Koordinaten von N Licht-Quellen und zwei oder mehr Licht-Quellen, erkannt durch die oben beschriebene Bestimmung, werden extrahiert aus einem Bild-Signal, erhalten durch die Kamera und Welt-Koordinaten, korrespondierend mit Licht-Quellen, werden erkannt aus dem Speicher-Modul 506 unter Verwendung der bestimmten IDs am Schritt S26.
  • Das Pose-Berechnungs-Modul 504 berechnet die Translation und Rotation des mobilen Roboters 500 durch Anwenden der Bild-Koordinaten und Welt-Koordinaten der erkannten Licht-Quellen auf die Transformations-Formel, erhalten durch den Positions-Berechnungs-Algorithmus.
  • Das hauptsächliche Steuer-Modul 501 des mobilen Roboters 500 bestimmt einen Bewegungspfad des mobilen Roboters 500 durch Anwenden der Translation und Rotation des mobilen Roboters 500 für die räumliche Koordinaten-Information des mobilen Roboters 500 in dem Arbeitsraum und steuert den mobilen Roboter 500, so dass er sich durch die Verwendung des Bewegungs-Steuer-Moduls 505 bewegt.
  • Falls die Anzahl der Licht-Quellen, die benötigt wird, um die Position des mobilen Roboters 500 zu berechnen, auf zwei eingestellt wird, sind die Bild-Koordinaten der Licht-Quellen, erkannt durch ein Bild-Signal, erhalten durch die Kamera in dem Bilderverarbeitungs-Modul 503 des mobilen Roboters 500, (u1, v1) und (u2, v2), und die spezifischen Koordinaten sind
    Figure 00120001
    und die Translation und Rotation des mobilen Roboters werden dann erhalten wie unten beschrieben.
  • Wenn eine Versetzungs-Matrix zum Erhalten der Translation und Rotation des mobilen Roboters konstruiert wird unter Verwendung des Welt-Koordinaten-Systems und des Kamera-Koordinaten-Systems, die Kamera des mobilen Roboters sich auf einer bestimmten Höhe bewegt, und die Translation mit Blick auf die z-Achse null ist, so wird die folgende Versetzungs-Matrix erhalten.
    Figure 00120002
    wobei t eine Translation ist und R eine Rotation ist.
  • Wenn die Versetzungs-Matrix mit Blick auf die Translation und Rotation des mobilen Roboters erhalten wird, wird die Versetzungs-Matrix auf eine Formel angewandt zum Kompensieren der Verzeichnung, verursacht durch die Linse der Kamera. Die Linsen-Verzeichnungs-Kompensations-Formel ist wie folgt (siehe Three-Dimensional Computer Vision – A Geometric Viewpoint, Oliver Faugeras, 1993).
    Figure 00130001
  • Eine Versetzungs-Matrix mit Blick auf die Translation und Rotation wird zur Linsen-Verzeichnungs-Kompensations-Formel hinzugefügt. Ein Extensions-Modell, ausgebildet durch Einschließen der Translations- und Rotationsmatrix ist wie folgt:
    Figure 00130002
  • In der oben dargestellten Matrix-Gleichung sind fx, fy, u0 und v0 Parameter-Werte, bestimmt entsprechend den Kamera-Charakteristika durch Kamera-Kalibration, ui und vi sind Bild-Koordinaten, die erhalten werden von einem Eingabe-Bild-Signal mit Blick auf die Merkmals-Punkte der erkannten Lichtquellen und
    Figure 00130003
    sind die Welt-Koordinaten der erkannten Licht-Quellen.
  • Die oben dargestellte Matrix-Gleichung wird ausgedrückt durch Gleichungen für ui und vi wie unten beschrieben wird:
    Figure 00130004
  • Die Translation tx und ty sowie die Rotation θ des mobilen Roboters werden erhalten unter Bezugnahme auf die Koordinaten-Information (u1, v1) und (u2, v2) und
    Figure 00130005
    und
    Figure 00130006
    der Licht-Quellen, erkannt durch die Kamera, wie unten beschrieben werden wird.
    Figure 00140001
  • Durch den oben dargestellten Prozess berechnet das Pose-Berechnungs-Modul die derzeitige Position des mobilen Roboters 500 und bestimmt präzise die laufende Position des mobilen Roboters 500 durch Anwenden der berechneten Translations- und Rotations-Werte auf räumliche Koordinaten mit Blick auf den Arbeitsraum des mobilen Roboters 500.
  • Falls die Position des mobilen Roboters berechnet wird durch n Lichtquellen, wird die Gleichung 1 umgewandelt in die folgende Matrix-Gleichung.
    Figure 00140002
  • Die Bild-Koordinaten und die Welt-Koordinaten von n Licht-Quellen werden angewandt auf die umgewandelte Gleichung 2 wie unten beschrieben wird.
    Figure 00140003
  • Mit dem oben dargestellten Prozess wird die laufende Position des mobilen Roboters 500 berechnet. Das Haupt-Steuer-Modul 501 des mobilen Roboters 500 bestimmt die präzise laufende Position des mobilen Roboters 500 durch Anlegen der berechneten Translations- und Rotations-Werte auf zuvor gespeicherten räumlichen Koordinaten mit Blick auf den Arbeitsraum des mobilen Roboters 500.
  • Des Weiteren wird ein Bewegungs-Pfad für den mobilen Roboter, um sich zu einem Zielort zu bewegen, bestimmt unter Verwendung der Positions-Information, und der mobile Roboter 500 wird so gesteuert, dass er sich durch das Bewegungs-Steuer-Modul 505 bewegen kann.
  • In Übereinstimmung mit der vorliegenden Erfindung kann der mobile Roboter sich zu einem präzisen Zielort bewegen durch Steuern der Licht-Quellen einer charakteristischen Matrix, so dass sie flackern und Bestimmen von deren Position.
  • Der mobile Roboter wählt eine bestimmte Licht-Quelle aus, die verwendbar ist für die Berechnung dieser Position von den Licht-Quellen der charakteristischen Matrix und bestimmt in effizienter Art und Weise deren Position unter Verweis auf die zuvor gespeicherten Welt-Koordinaten der Licht-Quellen der charakteristischen Matrix.
  • Des Weiteren verwendet die charakteristische Matrix der vorliegenden Erfindung eine Vielzahl von Licht-Quellen mit einer bestimmten Wellenlänge, so dass sie als Mittel verwendet werden kann zum Bereitstellen von Positions-Information, um dem mobilen Roboter beim Durchführen der autonomen Navigation in der Umgebung eines Hauses behilflich zu sein, ohne beeinflusst zu werden durch die Variationen der Umgebung eines Hauses.

Claims (17)

  1. Mobiler Roboter (500), der umfasst: ein Kommunikationsmodul (502) zum Senden eines Lichtquellen-Steuersignals, mit dem das Flackern einer Vielzahl von Lichtquellen einer Zeichenanordnung gesteuert wird, die in einem Arbeitsraum vorhanden ist; ein Bildverarbeitungsmodul (503) zum Berechnen von Bildkoordinaten wenigstens einer der Vielzahl von Lichtquellen durch Erfassen der Lichtquellen, die so gesteuert werden, dass sie in Reaktion auf das Lichtquellen-Steuersignal flackern, aus einem Bildsignal, das mit einer Kamera gewonnen wird; ein Pose-Berechnungsmodul (504) zum Berechnen von Koordinaten des mobilen Roboters unter Verwendung der berechneten Bildkoordinaten und zuvor gespeicherter Bildkoordinaten der Lichtquellen; ein Bewegungssteuermodul (505), das einen Bewegungsweg für den mobilen Roboter durch Anwenden der Positionskoordinaten des mobilen Roboters auf zuvor gespeicherte räumliche Koordinaten des Arbeitsraums berechnet und den mobilen Roboter so steuert, dass er sich auf dem Bewegungsweg entlang bewegt; und ein Hauptsteuermodul (501) zum Steuern von Interoperationen der Module und allgemeiner Operationen des mobilen Roboters; dadurch gekennzeichnet, dass das Lichtquellen-Steuersignal zu einem Zeichenanordnungs-Steuermodul gesendet wird, das eine Vielzahl von Lichtquellen steuert und die Lichtquellen spezifiziert, die das Zeichenanordnungs-Steuermodul so steuern soll, dass sie flackern.
  2. Mobiler Roboter nach Anspruch 1, der des Weiteren ein Speichermodul (506) zum Speichern der Weltkoordinaten der Lichtquellen, von Raumkoordinaten des mobilen Roboters in dem Arbeitsraum und von Parameter umfasst, die durch Kamerakalibrierung zum Kompensieren der Verzeichnung eines Objektivs der Kamera berechnet werden.
  3. Mobiler Roboter nach Anspruch 1 oder 2, wobei das Pose-Berechnungsmodul (504) Translation und Drehung des Roboters durch Anwenden der Bildkoordinaten und der Weltkoordinaten auf den spezifizierten Positionsberechnungsalgorithmus berechnet.
  4. Mobiler Roboter nach Anspruch 3, wobei der Pose-Berechnungsalgorithmus eine bestimmte Transformationsmatrixgleichung ist, die ermittelt wird, in dem ein Erweiterungsmodell (extension model) zum Ermitteln einer Translation und einer Drehung der Kamera unter Verwendung eines Weltkoordinatensystems und eines Kamerakoordinatensystem konstruiert wird, und das Erweiterungsmodell auf eine Formel zum Kompensieren von durch ein Objektiv der Kamera verursachter Verzeichnung angewendet wird.
  5. System für autonome Navigation eines mobilen Roboters (500), das umfasst: eine Wegpunktanordnung (100), die eine Vielzahl von Lichtquellen umfasst, die in einem bestimmten Bereich angeordnet sind und selektiv flackern; ein Wegmarkenanordnungs-Steuermodul (300), das die Lichtquellen so steuert, dass sie flackern; und einen mobilen Roboter (500) nach einem der vorangehenden Ansprüche.
  6. System nach Anspruch 5, wobei die Lichtquellen (1, 2 ... n) Lichtemissionsvorrichtungen sind, die Elektolumineszenzvorrichtung und Leuchtdioden einschließen und die Licht mit einer bestimmten Wellenlänge und einer bestimmten Helligkeit emittieren.
  7. System nach Anspruch 5 oder 6, wobei den Lichtquellen (1, 2 ... n) jeweils Positionsinformationen zugewiesen sind, die aus einer spezifischen Identifizierungsnummer und Weltkoordinaten in einem Arbeitsraum bestehen, in dem die Wegmarkenanordnung angeordnet ist.
  8. System nach Anspruch 5, 6 oder 7, wobei das Wegmarken-Steuermodul (300) umfasst: einen Zugangspunkt (301) zum Empfangen und Verarbeiten des von dem mobilen Roboter gesendeten Lichtquellen-Steuersignals; und eine Lichtquellen-Steuereinheit (302), die entsprechende Lichtquellen so steuert, dass sie in Reaktion auf das von dem Zugangspunkt eingegebene Lichtquellen-Steuersignal flackern.
  9. System nach Anspruch 5, 6, 7 oder 8, wobei das Pose-Berechnungsmodul (504) Translation und Drehung des Roboters durch Anwenden von Bildkoordinaten und Weltkoordinaten auf einen bestimmten Pose-Berechnungsalgorithmus berechnet.
  10. System nach Anspruch 5, wobei der Pose-Berechnungsalgorithmus eine bestimmte Transformationsmatrixgleichung ist, die ermittelt wird, indem ein Erweiterungsmodell zum Ermitteln einer Translation und einer Drehung der Kamera unter Verwendung eines Weltkoordinatensystems und eines Bildkoordinatensystems konstruiert wird und das Erweiterungsmodell auf eine Formel zum Kompensieren von durch ein Objektiv der Kamera verursachter Verzerrung angewendet wird.
  11. System nach Anspruch 9 oder 10, wobei dem Kommunikationsmodul (502) und dem Zugangspunkt (301) Frequenzen einer hohen Bandbreite zugewiesen sind und sie Daten über die zugewiesenen Frequenzen senden/empfangen, oder das Kommunikationsmodul (502) und der Zugangspunkt (301) über Infrarot-Datenübertragungsvorgänge unter Verwendung von Infrarotstrahlen oder über Datenübertragungsvorgänge auf Basis von Drahtlos-Datenübermittlungsprotokollen, wie beispielsweise Bluetooth, das eine lokale Drahtlos-Datenübertragungstechnologie ist, das Lichtquellen-Steuersignal senden/empfangen.
  12. System nach Anspruch 5, wobei das Bildverarbeitungsmodul (503) umfasst: eine Kamera, die mit einem Filter zum Filtern einer Wellenlänge der Lichtquelle aus einem Bildsignal versehen ist; und eine Signalverarbeitungseinheit zum Erfassen der Wellenlänge der Lichtquelle aus dem von der Kamera ausgegebenen gefilterten Bildsignal.
  13. Verfahren für autonome Navigation eines mobilen Roboters (500), das umfasst: den ersten Schritt, in dem der mobile Roboter (500) selektiv eine Vielzahl von Lichtquellen einer Wegmarkenanordnung (100), die über einen bestimmten Arbeitsraum angeordnet ist, so steuert, dass sie flackern; den zweiten Schritt des Extrahierens von Bildkoordinaten einer Kamera durch Erfassen einer Lichtquelle, die so gesteuert wird, dass sie flackert, aus einem von der Kamera eingegebenen Bildsignal; und den dritten Schritt des Berechnens einer aktuellen Pose des mobilen Roboters unter Bezugnahme auf die extrahierten Bildkoordinaten und zuvor gespeicherte Weltkoordinaten der Lichtquelle; dadurch gekennzeichnet, dass in dem ersten Schritt der mobile Roboter ein Lichtquellen-Steuersignal zu einem Wegpunktanordnungs-Steuermodul, das die Vielzahl von Lichtquellen steuert, sendet, das die Lichtquelle spezifiziert, die flackern soll, und dass das Wegzeichen-Steuermodul diese Lichtquellen so steuert, dass sie flackern.
  14. Verfahren nach Anspruch 13, das des Weiteren den vierten Schritt umfasst, in dem ein Bewegungssteuermodul (505) einen Bewegungsweg zu einem Ziel unter Verwendung der berechneten aktuellen Position bestimmt, und den mobilen Roboter so steuert, dass er sich auf dem vorgegebenen Bewegungsweg entlang bewegt.
  15. Verfahren nach Anspruch 13 oder 14, wobei der zweite Schritt die folgenden Schritte umfasst: Erfassen kennzeichnender Punkte der Lichtquelle (1, 2 ... n) aus dem durch die Kamera aufgenommenen Bildsignal; unter Verwendung der kennzeichnenden Punkte der Lichtquelle Bestimmen, ob die Lichtquelle (1, 2 ... n) durch die Kamera erfasst wird oder nicht; Suchen nach der durch die Kamera erfassten Lichtquelle (1, 2 ... n), indem Lichtquellen in der Nähe einer zuvor ausprobierten Lichtquelle sequenziell gesteuert werden, so dass sie flackern, wenn die erste ausprobierte Lichtquelle nicht erfasst wird; und Extrahieren von Bildkoordinaten einer erfassten Lichtquelle aus dem Bildsignal, wenn eine Lichtquelle erfasst wird.
  16. Verfahren nach einem der Ansprüche 13 bis 15, wobei der dritte Schritt die folgenden Schritte umfasst: Erfassen von Positionsinformationen der erfassten Lichtquelle (1, 2 ... n); Berechnen der Pose des mobilen Roboters unter Bezugnahme auf die berechnete Position des mobilen Roboters; und Ermitteln einer genauen Position des mobilen Roboters durch Abgleichen der berechneten Position des mobilen Roboters mit zuvor in dem mobilen Roboter gespeicherten Raumkoordinateninformationen des Arbeitsraums.
  17. Verfahren nach einem der Ansprüche 13 bis 16, wobei der mobile Roboter (500) zwei oder mehr Lichtquellen erfasst, indem er den ersten und den zweiten Schritt wiederholt, um genau die Position des mobilen Roboters zu ermitteln.
DE602004011408T 2003-01-11 2004-01-08 Mobiler Roboter, sowie System und Verfahren zur autonomen Navigation eines solchen Roboters Expired - Lifetime DE602004011408T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR2003001828 2003-01-11
KR10-2003-0001828A KR100506533B1 (ko) 2003-01-11 2003-01-11 이동로봇 및 그에 따른 자율주행 시스템 및 방법

Publications (2)

Publication Number Publication Date
DE602004011408D1 DE602004011408D1 (de) 2008-03-13
DE602004011408T2 true DE602004011408T2 (de) 2009-04-16

Family

ID=32501497

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004011408T Expired - Lifetime DE602004011408T2 (de) 2003-01-11 2004-01-08 Mobiler Roboter, sowie System und Verfahren zur autonomen Navigation eines solchen Roboters

Country Status (5)

Country Link
US (1) US7613544B2 (de)
EP (1) EP1437636B1 (de)
JP (1) JP4115946B2 (de)
KR (1) KR100506533B1 (de)
DE (1) DE602004011408T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011108579A1 (de) * 2011-07-27 2013-01-31 Sew-Eurodrive Gmbh & Co. Kg Anlage, aufweisend Mobilteile, und Verfahren zum Übertragen von Information bei einer Anlage

Families Citing this family (178)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6658091B1 (en) 2002-02-01 2003-12-02 @Security Broadband Corp. LIfestyle multimedia security system
US9141276B2 (en) 2005-03-16 2015-09-22 Icontrol Networks, Inc. Integrated interface for mobile device
US8988221B2 (en) 2005-03-16 2015-03-24 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US10721087B2 (en) 2005-03-16 2020-07-21 Icontrol Networks, Inc. Method for networked touchscreen with integrated interfaces
US10382452B1 (en) 2007-06-12 2019-08-13 Icontrol Networks, Inc. Communication protocols in integrated systems
US11582065B2 (en) 2007-06-12 2023-02-14 Icontrol Networks, Inc. Systems and methods for device communication
US20090077623A1 (en) 2005-03-16 2009-03-19 Marc Baum Security Network Integrating Security System and Network Devices
US11201755B2 (en) 2004-03-16 2021-12-14 Icontrol Networks, Inc. Premises system management using status signal
US10375253B2 (en) 2008-08-25 2019-08-06 Icontrol Networks, Inc. Security system with networked touchscreen and gateway
US20170118037A1 (en) 2008-08-11 2017-04-27 Icontrol Networks, Inc. Integrated cloud system for premises automation
US11916870B2 (en) 2004-03-16 2024-02-27 Icontrol Networks, Inc. Gateway registry methods and systems
US10522026B2 (en) 2008-08-11 2019-12-31 Icontrol Networks, Inc. Automation system user interface with three-dimensional display
US11343380B2 (en) 2004-03-16 2022-05-24 Icontrol Networks, Inc. Premises system automation
US9729342B2 (en) 2010-12-20 2017-08-08 Icontrol Networks, Inc. Defining and implementing sensor triggered response rules
US11368429B2 (en) 2004-03-16 2022-06-21 Icontrol Networks, Inc. Premises management configuration and control
US9609003B1 (en) 2007-06-12 2017-03-28 Icontrol Networks, Inc. Generating risk profile using data of home monitoring and security system
US10313303B2 (en) 2007-06-12 2019-06-04 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
JP2007529826A (ja) 2004-03-16 2007-10-25 アイコントロール ネットワークス, インコーポレイテッド 対象事項管理ネットワーク
US8963713B2 (en) 2005-03-16 2015-02-24 Icontrol Networks, Inc. Integrated security network with security alarm signaling system
US10142392B2 (en) 2007-01-24 2018-11-27 Icontrol Networks, Inc. Methods and systems for improved system performance
US11159484B2 (en) 2004-03-16 2021-10-26 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US10200504B2 (en) 2007-06-12 2019-02-05 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US11677577B2 (en) 2004-03-16 2023-06-13 Icontrol Networks, Inc. Premises system management using status signal
US11489812B2 (en) 2004-03-16 2022-11-01 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US10348575B2 (en) 2013-06-27 2019-07-09 Icontrol Networks, Inc. Control system user interface
US7711796B2 (en) 2006-06-12 2010-05-04 Icontrol Networks, Inc. Gateway registry methods and systems
US11811845B2 (en) 2004-03-16 2023-11-07 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US11277465B2 (en) 2004-03-16 2022-03-15 Icontrol Networks, Inc. Generating risk profile using data of home monitoring and security system
US10237237B2 (en) 2007-06-12 2019-03-19 Icontrol Networks, Inc. Communication protocols in integrated systems
US8635350B2 (en) 2006-06-12 2014-01-21 Icontrol Networks, Inc. IP device discovery systems and methods
US9531593B2 (en) 2007-06-12 2016-12-27 Icontrol Networks, Inc. Takeover processes in security network integrated with premise security system
US11316958B2 (en) 2008-08-11 2022-04-26 Icontrol Networks, Inc. Virtual device systems and methods
US9191228B2 (en) 2005-03-16 2015-11-17 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US10156959B2 (en) 2005-03-16 2018-12-18 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US11113950B2 (en) 2005-03-16 2021-09-07 Icontrol Networks, Inc. Gateway integrated with premises security system
US11244545B2 (en) 2004-03-16 2022-02-08 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US10444964B2 (en) 2007-06-12 2019-10-15 Icontrol Networks, Inc. Control system user interface
US10127802B2 (en) 2010-09-28 2018-11-13 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US10339791B2 (en) 2007-06-12 2019-07-02 Icontrol Networks, Inc. Security network integrated with premise security system
EP1741044B1 (de) * 2004-03-27 2011-09-14 Harvey Koselka Autonomer persönlicher dienstroboter
IL162612A (en) * 2004-06-17 2010-12-30 Michael Braiman Tracking system using fixed optical radiators and method thereof
US7845560B2 (en) 2004-12-14 2010-12-07 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
US20120324566A1 (en) 2005-03-16 2012-12-20 Marc Baum Takeover Processes In Security Network Integrated With Premise Security System
US20170180198A1 (en) 2008-08-11 2017-06-22 Marc Baum Forming a security network including integrated security system components
US20110128378A1 (en) 2005-03-16 2011-06-02 Reza Raji Modular Electronic Display Platform
US10999254B2 (en) 2005-03-16 2021-05-04 Icontrol Networks, Inc. System for data routing in networks
US11615697B2 (en) 2005-03-16 2023-03-28 Icontrol Networks, Inc. Premise management systems and methods
US9450776B2 (en) 2005-03-16 2016-09-20 Icontrol Networks, Inc. Forming a security network including integrated security system components
US11700142B2 (en) 2005-03-16 2023-07-11 Icontrol Networks, Inc. Security network integrating security system and network devices
US11496568B2 (en) 2005-03-16 2022-11-08 Icontrol Networks, Inc. Security system with networked touchscreen
US9306809B2 (en) 2007-06-12 2016-04-05 Icontrol Networks, Inc. Security system with networked touchscreen
JP4300199B2 (ja) * 2005-06-13 2009-07-22 株式会社東芝 移動ロボット、移動ロボットの位置姿勢算出方法、移動ロボットの自律走行システム
JP4478885B2 (ja) * 2005-06-28 2010-06-09 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
KR100703882B1 (ko) * 2005-09-29 2007-04-06 전자부품연구원 단일 카메라 기반 포즈인식이 가능한 이동로봇 및 그 방법
US8935006B2 (en) * 2005-09-30 2015-01-13 Irobot Corporation Companion robot for personal interaction
KR100669250B1 (ko) * 2005-10-31 2007-01-16 한국전자통신연구원 인공표식 기반의 실시간 위치산출 시스템 및 방법
ES2623920T3 (es) * 2005-12-02 2017-07-12 Irobot Corporation Sistema de robot.
US8381982B2 (en) 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
US7634336B2 (en) * 2005-12-08 2009-12-15 Electronics And Telecommunications Research Institute Localization system and method of mobile robot based on camera and landmarks
US10079839B1 (en) 2007-06-12 2018-09-18 Icontrol Networks, Inc. Activation of gateway device
KR100757937B1 (ko) * 2006-06-30 2007-09-12 삼성전자주식회사 로봇의 위치 추적 및 지도 작성 방법
KR100785784B1 (ko) * 2006-07-27 2007-12-13 한국전자통신연구원 인공표식과 오도메트리를 결합한 실시간 위치산출 시스템및 방법
KR100811885B1 (ko) * 2006-09-11 2008-03-10 한국전자통신연구원 이동 로봇의 위치 인식 방법 및 이를 위한 장치
KR100834987B1 (ko) * 2006-11-30 2008-06-03 광운대학교 산학협력단 실내항법 좌표확인시스템
JP2008146489A (ja) * 2006-12-12 2008-06-26 Matsushita Electric Works Ltd 自律移動装置制御システム及び自律移動装置
US11706279B2 (en) 2007-01-24 2023-07-18 Icontrol Networks, Inc. Methods and systems for data communication
US7633385B2 (en) 2007-02-28 2009-12-15 Ucontrol, Inc. Method and system for communicating with and controlling an alarm system from a remote server
US8451986B2 (en) 2007-04-23 2013-05-28 Icontrol Networks, Inc. Method and system for automatically providing alternate network access for telecommunications
US10051078B2 (en) 2007-06-12 2018-08-14 Icontrol Networks, Inc. WiFi-to-serial encapsulation in systems
US10616075B2 (en) 2007-06-12 2020-04-07 Icontrol Networks, Inc. Communication protocols in integrated systems
US11423756B2 (en) 2007-06-12 2022-08-23 Icontrol Networks, Inc. Communication protocols in integrated systems
US10523689B2 (en) 2007-06-12 2019-12-31 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US11212192B2 (en) 2007-06-12 2021-12-28 Icontrol Networks, Inc. Communication protocols in integrated systems
US11316753B2 (en) 2007-06-12 2022-04-26 Icontrol Networks, Inc. Communication protocols in integrated systems
US10498830B2 (en) 2007-06-12 2019-12-03 Icontrol Networks, Inc. Wi-Fi-to-serial encapsulation in systems
US11646907B2 (en) 2007-06-12 2023-05-09 Icontrol Networks, Inc. Communication protocols in integrated systems
US10389736B2 (en) 2007-06-12 2019-08-20 Icontrol Networks, Inc. Communication protocols in integrated systems
US10423309B2 (en) 2007-06-12 2019-09-24 Icontrol Networks, Inc. Device integration framework
US11218878B2 (en) 2007-06-12 2022-01-04 Icontrol Networks, Inc. Communication protocols in integrated systems
US10666523B2 (en) 2007-06-12 2020-05-26 Icontrol Networks, Inc. Communication protocols in integrated systems
US11237714B2 (en) 2007-06-12 2022-02-01 Control Networks, Inc. Control system user interface
US11601810B2 (en) 2007-06-12 2023-03-07 Icontrol Networks, Inc. Communication protocols in integrated systems
US11089122B2 (en) 2007-06-12 2021-08-10 Icontrol Networks, Inc. Controlling data routing among networks
US11831462B2 (en) 2007-08-24 2023-11-28 Icontrol Networks, Inc. Controlling data routing in premises management systems
EP2826436B1 (de) 2007-09-06 2018-03-28 Alcon LenSx, Inc. Präzises Zielen von chirurgischer Photodisruption
US8210435B2 (en) 2008-01-14 2012-07-03 Sky-Trax, Inc. Optical position marker apparatus
US11916928B2 (en) 2008-01-24 2024-02-27 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US8565913B2 (en) 2008-02-01 2013-10-22 Sky-Trax, Inc. Apparatus and method for asset tracking
JP5262148B2 (ja) * 2008-02-05 2013-08-14 日本電気株式会社 ランドマーク検出装置および方法ならびにプログラム
US8915692B2 (en) * 2008-02-21 2014-12-23 Harvest Automation, Inc. Adaptable container handling system
JP5024128B2 (ja) * 2008-03-10 2012-09-12 トヨタ自動車株式会社 移動ロボットの制御システム
US20170185278A1 (en) 2008-08-11 2017-06-29 Icontrol Networks, Inc. Automation system user interface
US8346468B2 (en) 2008-07-08 2013-01-01 Sky-Trax Incorporated Method and apparatus for collision avoidance
US11258625B2 (en) 2008-08-11 2022-02-22 Icontrol Networks, Inc. Mobile premises automation platform
US11792036B2 (en) 2008-08-11 2023-10-17 Icontrol Networks, Inc. Mobile premises automation platform
US10530839B2 (en) 2008-08-11 2020-01-07 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US11758026B2 (en) 2008-08-11 2023-09-12 Icontrol Networks, Inc. Virtual device systems and methods
US11729255B2 (en) 2008-08-11 2023-08-15 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US8855819B2 (en) * 2008-10-09 2014-10-07 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
US9628440B2 (en) 2008-11-12 2017-04-18 Icontrol Networks, Inc. Takeover processes in security network integrated with premise security system
US8939842B2 (en) 2009-01-13 2015-01-27 Meimadtek Ltd. Method and system for operating a self-propelled vehicle according to scene images
US8638211B2 (en) 2009-04-30 2014-01-28 Icontrol Networks, Inc. Configurable controller and interface for home SMA, phone and multimedia
KR101040957B1 (ko) * 2009-07-27 2011-06-17 전자부품연구원 로봇의 위치 인식 방법 및 장치
US9504608B2 (en) * 2009-07-29 2016-11-29 Alcon Lensx, Inc. Optical system with movable lens for ophthalmic surgical laser
US8419721B2 (en) * 2009-07-29 2013-04-16 Alcon Lensx, Inc. Optical system for ophthalmic surgical laser
US8506559B2 (en) * 2009-11-16 2013-08-13 Alcon Lensx, Inc. Variable stage optical system for ophthalmic surgical laser
GB2475713A (en) * 2009-11-27 2011-06-01 Hochschule Bochum Navigation / location system using location signals generated from light sources
US8224516B2 (en) * 2009-12-17 2012-07-17 Deere & Company System and method for area coverage using sector decomposition
US8635015B2 (en) * 2009-12-17 2014-01-21 Deere & Company Enhanced visual landmark for localization
US20110153338A1 (en) * 2009-12-17 2011-06-23 Noel Wayne Anderson System and method for deploying portable landmarks
KR101326618B1 (ko) * 2009-12-18 2013-11-08 한국전자통신연구원 이동체의 위치 인식 방법 및 장치와 그 위치 인식 시스템 및 위치 인식 식별기
US8508590B2 (en) * 2010-03-02 2013-08-13 Crown Equipment Limited Method and apparatus for simulating a physical environment to facilitate vehicle operation and task completion
US8538577B2 (en) * 2010-03-05 2013-09-17 Crown Equipment Limited Method and apparatus for sensing object load engagement, transportation and disengagement by automated vehicles
AU2011250886A1 (en) 2010-05-10 2013-01-10 Icontrol Networks, Inc Control system user interface
DE102010031629B4 (de) * 2010-07-21 2015-06-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System und Verfahren zum Ermitteln einer Position eines beweglichen Objekts, Anordnung von Allgemeinbeleuchtungs-LED und Lichtsensor für eine Positionsermittlung eines beweglichen Objekts
US8836467B1 (en) 2010-09-28 2014-09-16 Icontrol Networks, Inc. Method, system and apparatus for automated reporting of account and sensor zone information to a central station
US11750414B2 (en) 2010-12-16 2023-09-05 Icontrol Networks, Inc. Bidirectional security sensor communication for a premises security system
US9147337B2 (en) 2010-12-17 2015-09-29 Icontrol Networks, Inc. Method and system for logging security event data
AU2012243484B2 (en) 2011-04-11 2014-10-30 Crown Equipment Corporation Method and apparatus for efficient scheduling for multiple automated non-holonomic vehicles using a coordinated path planner
CN102183959B (zh) * 2011-04-21 2013-08-07 深圳市银星智能科技股份有限公司 移动机器人的自适应路径控制方法
US8655588B2 (en) 2011-05-26 2014-02-18 Crown Equipment Limited Method and apparatus for providing accurate localization for an industrial vehicle
US8548671B2 (en) 2011-06-06 2013-10-01 Crown Equipment Limited Method and apparatus for automatically calibrating vehicle parameters
US8589012B2 (en) 2011-06-14 2013-11-19 Crown Equipment Limited Method and apparatus for facilitating map data processing for industrial vehicle navigation
US8594923B2 (en) 2011-06-14 2013-11-26 Crown Equipment Limited Method and apparatus for sharing map data associated with automated industrial vehicles
KR102111000B1 (ko) 2011-08-25 2020-05-14 코넬 유니버시티 머신 비전용 망막 인코더
US20140058634A1 (en) * 2012-08-24 2014-02-27 Crown Equipment Limited Method and apparatus for using unique landmarks to locate industrial vehicles at start-up
US9056754B2 (en) 2011-09-07 2015-06-16 Crown Equipment Limited Method and apparatus for using pre-positioned objects to localize an industrial vehicle
KR101366860B1 (ko) * 2011-09-20 2014-02-21 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
US9147173B2 (en) 2011-10-31 2015-09-29 Harvest Automation, Inc. Methods and systems for automated transportation of items between variable endpoints
US8676425B2 (en) 2011-11-02 2014-03-18 Harvest Automation, Inc. Methods and systems for maintenance and other processing of container-grown plants using autonomous mobile robots
US8937410B2 (en) 2012-01-17 2015-01-20 Harvest Automation, Inc. Emergency stop method and system for autonomous mobile robots
US8852177B2 (en) 2012-03-09 2014-10-07 Alcon Lensx, Inc. Spatio-temporal beam modulator for surgical laser systems
US10182943B2 (en) 2012-03-09 2019-01-22 Alcon Lensx, Inc. Adjustable pupil system for surgical laser systems
US8744662B2 (en) * 2012-05-07 2014-06-03 Joseph Y. Ko Method for operating autonomous moving cleaning apparatus
CN102662400A (zh) * 2012-05-10 2012-09-12 慈溪思达电子科技有限公司 割草机器人的路径规划算法
US9044863B2 (en) 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
US9928975B1 (en) 2013-03-14 2018-03-27 Icontrol Networks, Inc. Three-way switch
US9867143B1 (en) 2013-03-15 2018-01-09 Icontrol Networks, Inc. Adaptive Power Modulation
US9287727B1 (en) 2013-03-15 2016-03-15 Icontrol Networks, Inc. Temporal voltage adaptive lithium battery charger
KR101319045B1 (ko) * 2013-05-24 2013-10-17 한경대학교 산학협력단 무인 화물 이송로봇
EP3031206B1 (de) 2013-08-09 2020-01-22 ICN Acquisition, LLC Fernüberwachungssystem, -verfahren und -vorrichtung
US11405463B2 (en) 2014-03-03 2022-08-02 Icontrol Networks, Inc. Media content management
US11146637B2 (en) 2014-03-03 2021-10-12 Icontrol Networks, Inc. Media content management
KR101830249B1 (ko) * 2014-03-20 2018-03-29 한국전자통신연구원 이동체의 위치 인식 장치 및 방법
EP2933065A1 (de) * 2014-04-17 2015-10-21 Aldebaran Robotics Humanoider Roboter mit autonomer Lebensfähigkeit
US9494934B2 (en) * 2014-06-06 2016-11-15 Amazon Technologies, Inc. Robotic communication with fiber-optics
US9152149B1 (en) 2014-06-06 2015-10-06 Amazon Technologies, Inc. Fiducial markers with a small set of values
KR101638679B1 (ko) 2014-06-25 2016-07-11 제주대학교 산학협력단 자율주행 및 위치기반 자율안내가 가능한 옥외용 범용 안내 로봇장치
CN105563449B (zh) * 2014-10-13 2017-10-24 航天科工智能机器人有限责任公司 一种移动机器人道路跟随方法
US9757002B2 (en) 2015-03-06 2017-09-12 Wal-Mart Stores, Inc. Shopping facility assistance systems, devices and methods that employ voice input
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
KR102489987B1 (ko) 2015-04-20 2023-01-17 코넬 유니버시티 차원 데이터 축소를 이용하는 머신 비전
WO2017118001A1 (zh) * 2016-01-04 2017-07-13 杭州亚美利嘉科技有限公司 用于机器人场地回流的方法和装置
US10471611B2 (en) 2016-01-15 2019-11-12 Irobot Corporation Autonomous monitoring robot systems
CN105554472B (zh) * 2016-01-29 2019-02-22 西安电子科技大学 覆盖环境的视频监控系统及其定位机器人的方法
CA2961938A1 (en) 2016-04-01 2017-10-01 Wal-Mart Stores, Inc. Systems and methods for moving pallets via unmanned motorized unit-guided forklifts
US10054951B2 (en) * 2016-05-25 2018-08-21 Fuji Xerox Co., Ltd. Mobile robot indoor localization and navigation system and method
KR102000067B1 (ko) * 2017-01-16 2019-09-17 엘지전자 주식회사 이동 로봇
US11221497B2 (en) 2017-06-05 2022-01-11 Steelcase Inc. Multiple-polarization cloaking
US10100968B1 (en) * 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
US10638906B2 (en) * 2017-12-15 2020-05-05 Neato Robotics, Inc. Conversion of cleaning robot camera images to floorplan for user interaction
KR101876702B1 (ko) * 2018-02-19 2018-07-09 한국수력원자력 주식회사 퇴적물 높이 측정시스템
US11106124B2 (en) 2018-02-27 2021-08-31 Steelcase Inc. Multiple-polarization cloaking for projected and writing surface view screens
US11491643B2 (en) 2018-03-14 2022-11-08 Fedex Corporate Services, Inc. Methods of performing a dispatched consumer-to-store logistics operation related to an item being replaced using a modular autonomous bot apparatus assembly and a dispatch server
CN110956660B (zh) * 2018-09-26 2023-10-10 深圳市优必选科技有限公司 定位方法、机器人以及计算机存储介质
CN111291952A (zh) * 2018-12-07 2020-06-16 杭州钧工机器人科技有限公司 智能点餐送餐系统
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
WO2020129992A1 (ja) * 2018-12-17 2020-06-25 Groove X株式会社 ロボットと、ロボットのための充電ステーションおよびランドマーク装置
KR102166326B1 (ko) * 2018-12-21 2020-10-15 충북대학교 산학협력단 드론의 3차원 경로 설정 시스템
CN109855603B (zh) * 2019-01-31 2019-12-13 金钱猫科技股份有限公司 一种聚焦测量方法及终端
US11537137B2 (en) * 2019-06-18 2022-12-27 Lg Electronics Inc. Marker for space recognition, method of moving and lining up robot based on space recognition and robot of implementing thereof
CN110274599A (zh) * 2019-06-26 2019-09-24 皖西学院 一种基于多深度摄像头的移动机器人室内定位系统及方法
CN110262495B (zh) * 2019-06-26 2020-11-03 山东大学 可实现移动机器人自主导航与精确定位的控制系统及方法
US20210405646A1 (en) * 2019-07-03 2021-12-30 Lg Electronics Inc. Marker, method of moving in marker following mode, and cart-robot implementing method
WO2022110159A1 (zh) * 2020-11-30 2022-06-02 深圳市大疆创新科技有限公司 定位方法、装置、可移动平台、地标及地标阵列
CN113253726B (zh) * 2021-05-13 2023-01-24 金陵科技学院 一种物联网下的磁导航机器人及导航调度系统
CN113386150A (zh) * 2021-06-11 2021-09-14 山东新一代信息产业技术研究院有限公司 一种小区智能巡检服务机器人系统

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE454389B (sv) 1985-04-22 1988-04-25 Bt Carrago Ab Positioneringssystem for i parallella plan inbordes rorliga enheter
FR2590681B1 (fr) 1985-11-27 1988-06-24 Alcatel Espace Systeme de localisation d'un objet muni d'au moins une mire passive.
FR2605416B1 (fr) 1986-10-15 1988-12-02 Lmt Radio Professionelle Procede d'identification iff de champ de bataille et systeme iff de mise en oeuvre
US4933864A (en) * 1988-10-04 1990-06-12 Transitions Research Corporation Mobile robot navigation employing ceiling light fixtures
US5279309A (en) * 1991-06-13 1994-01-18 International Business Machines Corporation Signaling device and method for monitoring positions in a surgical operation
US5477459A (en) * 1992-03-06 1995-12-19 Clegg; Philip M. Real time three-dimensional machine locating system
US5491670A (en) * 1993-01-21 1996-02-13 Weber; T. Jerome System and method for sonic positioning
EP0662618A1 (de) * 1994-01-10 1995-07-12 Charlatte Verfahren und Vorrichtung zur Lokalisierung eines beweglichen Objekts
US5974348A (en) * 1996-12-13 1999-10-26 Rocks; James K. System and method for performing mobile robotic work operations
US6198230B1 (en) * 1998-04-15 2001-03-06 Talking Lights Dual-use electronic transceiver set for wireless data networks
JP2000056006A (ja) 1998-08-14 2000-02-25 Minolta Co Ltd 移動体の位置認識装置
US6266142B1 (en) * 1998-09-21 2001-07-24 The Texas A&M University System Noncontact position and orientation measurement system and method
JP2001142532A (ja) 1999-11-12 2001-05-25 Nippon Signal Co Ltd:The 移動体の位置検出装置
US6216087B1 (en) * 1999-11-23 2001-04-10 Xerox Corporation Infrared beacon positioning system
US7038584B2 (en) * 2000-03-31 2006-05-02 Ge Medical Systems Information Technologies, Inc. Object location monitoring within buildings
US6629028B2 (en) * 2000-06-29 2003-09-30 Riken Method and system of optical guidance of mobile body
JP2002062149A (ja) * 2000-08-23 2002-02-28 Matsushita Electric Ind Co Ltd 車載用位置算出装置
JP2002073170A (ja) 2000-08-25 2002-03-12 Matsushita Electric Ind Co Ltd 移動作業ロボット
KR100632242B1 (ko) 2000-11-22 2006-10-11 삼성광주전자 주식회사 모빌로봇의 경로보정방법
US6807478B2 (en) * 2001-12-27 2004-10-19 Koninklijke Philips Electronics N.V. In-building navigation system
US7015831B2 (en) * 2002-12-17 2006-03-21 Evolution Robotics, Inc. Systems and methods for incrementally updating a pose of a mobile device calculated by visual simultaneous localization and mapping techniques

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011108579A1 (de) * 2011-07-27 2013-01-31 Sew-Eurodrive Gmbh & Co. Kg Anlage, aufweisend Mobilteile, und Verfahren zum Übertragen von Information bei einer Anlage
DE102011108579B4 (de) 2011-07-27 2020-04-23 Sew-Eurodrive Gmbh & Co Kg Anlage, aufweisend Mobilteile, und Verfahren zum Übertragen von Information bei einer Anlage

Also Published As

Publication number Publication date
EP1437636A1 (de) 2004-07-14
KR20040064930A (ko) 2004-07-21
US20040202351A1 (en) 2004-10-14
KR100506533B1 (ko) 2005-08-05
EP1437636B1 (de) 2008-01-23
JP4115946B2 (ja) 2008-07-09
JP2004216552A (ja) 2004-08-05
US7613544B2 (en) 2009-11-03
DE602004011408D1 (de) 2008-03-13

Similar Documents

Publication Publication Date Title
DE602004011408T2 (de) Mobiler Roboter, sowie System und Verfahren zur autonomen Navigation eines solchen Roboters
DE60216411T2 (de) Robotervorrichtung, gesichtserkennungsverfahren und gesichtserkennungsvorrichtung
DE602004008131T2 (de) Automatisches Arbeitsgerät und automatisches Arbeitskontrollprogramm
DE60222449T2 (de) Mobile objektverfolgung
DE4217093C1 (de)
EP2189955B1 (de) Sensornetzwerksystem, Übertragungsprotokoll, Verfahren zum Wiedererkennen eines Objekts sowie Computerprogramm
DE10145150B4 (de) Verfahren zur Einstellung eines Kurses eines mobilen Roboters
DE10323225A1 (de) Ortsmarkenerfassungsverfahren für eine Roboterreinigungsvorrichtung und das Verfahren verwendende Roboterreinigungsvorrichtung
DE102015015638A1 (de) Vorrichtung und Verfahren zum Übertragen von Artikeln unter Verwendung eines Roboters
DE102019114796A1 (de) Führungssystem und -verfahren für autonome fahrzeuge
DE10200394A1 (de) Reinigungsroboter sowie diesen verwendendes System und Verfahren zur Wiederverbindung mit einer externen Nachladevorrichtung
EP1373993A2 (de) Roboterintelligenz in naturlichen umgebungen
DD228096A5 (de) Verfahren und vorrichtung zur automatischen fuehrung von fahzeugen, insbesondere von fahrerlosen elektrokarren
EP3333116A1 (de) Verfahren zur automatischen ausrichtung eines flurförderzeugs in einem warenlager sowie system aus einem flurförderzeug und einem warenlager
EP3482622A1 (de) Verfahren zur automatischen führung eines fahrzeugs entlang eines virtuellen schienensystems
EP3457161A1 (de) Verfahren und anordnung zum lokalisieren und/oder bewegen eines objekts in einer umgebung
DE102017211839A1 (de) Steuersystem für ein Agrararbeitssystem, Arbeitssystem, Verwendung
EP3559773B1 (de) Verfahren zur navigation und selbstlokalisierung eines sich autonom fortbewegenden bearbeitungsgerätes
DE60306389T2 (de) Verfahren zur Bildung von Druckkontrolldaten
WO2019057679A1 (de) Verfahren und robotersystem zum anpassen eines robotereinsatzes an einen arbeitsprozess
DE102021114265A1 (de) Robotervorrichtung eingerichtet zur Ermittlung einer Zielobjektlage eines vorbestimmten Zielobjekts und Verfahren
EP3812869A1 (de) Verfahren zur erstellung einer umgebungskarte für ein sich selbsttätig fortbewegendes bodenbearbeitungsgerät, sowie system aus zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten
DE102020214249A1 (de) Verfahren zum Bereitstellen von Navigationsdaten zum Steuern eines Roboters, Verfahren zum Steuern eines Roboters, Verfahren zum Herstellen zumindest eines vordefinierten punktsymmetrischen Bereichs und Vorrichtung
EP3848770A1 (de) Verfahren zum betrieb eines systems mit zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten sowie system zur durchführung eines solchen verfahrens
DE112020002957T5 (de) Verbesserte Steuersignalerkennung für eine Roboterarbeitsvorrichtung

Legal Events

Date Code Title Description
8381 Inventor (new situation)

Inventor name: PARK, DONG-RYEOL, GIHEUNG-EUP YONGIN-SI GYEONG, KR

Inventor name: BANG, SEOK-WON, GANGNAM-GU, KR

8364 No opposition during term of opposition