WO2016200167A1 - Orthodontic guide device method - Google Patents

Orthodontic guide device method Download PDF

Info

Publication number
WO2016200167A1
WO2016200167A1 PCT/KR2016/006113 KR2016006113W WO2016200167A1 WO 2016200167 A1 WO2016200167 A1 WO 2016200167A1 KR 2016006113 W KR2016006113 W KR 2016006113W WO 2016200167 A1 WO2016200167 A1 WO 2016200167A1
Authority
WO
WIPO (PCT)
Prior art keywords
tooth
orthodontic
image
bracket
guide
Prior art date
Application number
PCT/KR2016/006113
Other languages
French (fr)
Korean (ko)
Inventor
김건태
허다솜
Original Assignee
(주) 시원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150162406A external-priority patent/KR20160144891A/en
Application filed by (주) 시원 filed Critical (주) 시원
Priority to KR1020177035025A priority Critical patent/KR102067089B1/en
Publication of WO2016200167A1 publication Critical patent/WO2016200167A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/12Brackets; Arch wires; Combinations thereof; Accessories therefor
    • A61C7/14Brackets; Fixing brackets to teeth

Definitions

  • It relates to a guide device for orthodontics, and more particularly to a device for providing visual guidance and feedback to a medical practitioner in the orthodontic process of adhering the bracket to the teeth.
  • Orthodontic treatment refers to a series of procedures that prevent or treat abnormalities in tooth alignment.
  • orthodontic treatment means correcting healthy oral tissues by correcting various skeletal inconsistencies that may occur during the growth process, including simply arranging crooked teeth, so as to function normally.
  • Orthodontic treatment in children and adolescents is corrected before the growth of the jaw bone growth, and can be adjusted while controlling the jaw growth.
  • orthodontic treatment is required to correct the position of the teeth using a fixed braces or removable braces.
  • the method of bonding through the adhesive between the teeth and the bracket is mainly used.
  • the orthodontic guide device implemented by the computing terminal is a processor for generating matching information between the guide and the teeth image including the bonding position and the orientation of the bracket according to the orthodontic planning, and based on the generated matching information And a controller configured to overlap the guide with the tooth image.
  • the adhesive position and direction of the bracket may be represented by an image implemented with augmented reality including a cross.
  • the bonding position and the direction of the bracket may be represented as an image implemented with augmented reality in the position where the bracket is to be bonded to the 3D image.
  • the orthodontic guide device may further include a display for providing a tooth image overlapping the guide, the display may include a spectacle wearable device having a camera.
  • the orthodontic guide device may further include a display that provides a tooth image in which the guide is overlapped, and the display may include a camera and an external display linked to the camera.
  • the processor identifies a plurality of points associated with a tooth in the tooth image, and generates positions of the identified points as the matching information.
  • the plurality of points are feature points included in at least one of the gum and tooth.
  • At least one of the plurality of points corresponds to a radiopaque material disposed on the gum or tooth.
  • At least one of the plurality of points corresponds to a positive protrusion block or a negative depression disposed on the gum or tooth.
  • At least one of the plurality of points corresponds to at least one of a tattoo point pre-coloured to the gum or tooth and a color tape attached thereto.
  • the orthodontic guide device implemented by the computing terminal, a processor for calculating an error between the position of the bracket in the dental image and the adhesive position of the bracket according to the orthodontic planning, and if the error is less than the threshold value to the operator It includes a signal generator for generating a control signal for providing a notification.
  • the notification comprises orthodontic guide device comprising a visual marker implemented in augmented reality provided via a display. In one embodiment, the notification comprises orthodontic guide device comprising a sound effect provided to the operator.
  • the photopolymer control device implemented by the photopolymer control device computing terminal is a processor for determining the activation of the photopolymerizer based on the position of the bracket with respect to the teeth, and when the photopolymerizer is activated, in response to the control signal And a controller for controlling the photopolymerizer to irradiate light to the bracket.
  • the processing unit determines the activation of the photopolymerizer when the position of the bracket relative to the tooth meets a predetermined criterion.
  • the processing unit determines that the predetermined criteria meet.
  • control signal is generated by a switching module connected to the photopolymerizer and wired or wireless.
  • the switching module is controlled on and off by a foot switch and controls the generation of the control signal in accordance with the on and off control.
  • the switching module generates the control signal in response to a predetermined voice signal.
  • control unit controls the photopolymerizer to irradiate the light by controlling at least one of the irradiation amount and the irradiation time.
  • an operation method of a dental orthodontic guide device implemented by a computing terminal may include generating matching information between a guide and a tooth image including an adhesive position of a bracket according to dental orthodontic planning, and generating the matching information. Based on the overlapping of the guide on the tooth image.
  • the photopolymer control method implemented by the computing terminal, in the processing unit, if the position of the bracket with respect to the tooth meets a predetermined criterion, determining the activation of the photopolymerizer, and in the control unit, the photopolymerizer If activated, controlling the photopolymerizer to irradiate the bracket with light in response to a control signal.
  • the orthodontic guide device implemented by the computing terminal is a processor for generating matching information between the 3D image and the teeth image of the tooth including the root, and based on the generated matching information, the image representing the root It includes a control that overlaps the tooth image.
  • the processor extracts a 3D image of the tooth from a CT image, and identifies the tooth in the tooth image corresponding to the 3D image of the tooth to generate the matching information.
  • the processor generates a screw placement position guide according to the orthodontic planning, and the controller overlaps the screw placement position guide on the tooth image.
  • FIG 1 illustrates an orthodontic guide device according to an embodiment.
  • FIG. 2A illustrates a state in which a guide is implemented as an augmented reality on a display device by a dental orthodontic guide device according to an embodiment.
  • 2B illustrates an embodiment of bonding a bracket according to a guide according to an embodiment.
  • 3A is a view for explaining an embodiment of matching a guide and a dental image by displaying a feature point on a palatal rugae of the palate.
  • 3B is a view for explaining an embodiment of matching a guide and a tooth image by displaying a feature point on a tooth.
  • 3C is a view for explaining an embodiment of matching a guide and a tooth image by using feature points included in information of one tooth.
  • Figure 3d shows a state of guiding the placement position of the root and orthodontic screw with augmented reality by the orthodontic guide device according to one embodiment.
  • 3E is a diagram for describing a process of identifying an object coordinate system, according to an exemplary embodiment.
  • FIG. 4 illustrates an apparatus for controlling a photopolymerizer according to an embodiment.
  • FIG. 5 is a flowchart illustrating a method of operating a dental orthodontic guide device according to an embodiment.
  • FIG. 6 is a flowchart illustrating a method of operating a light polymerizer control apparatus according to an embodiment.
  • FIG. 1 illustrates a dental orthodontic guide device 100 according to one embodiment.
  • the orthodontic guide device 100 may include a processor 110 and a controller 120.
  • Apparatus 100 may be implemented at least temporarily by a computing terminal.
  • the computing terminal includes any type of electronic device, such as a personal computer, medical device, smartphone, tablet computer, wearable device.
  • the processor 110 and the controller 120 may each be a physical and / or logical element included in such an electronic device.
  • the processor 110 and the controller 120 may be implemented by dedicated hardware or general purpose computing resources controlled by software or an operating system.
  • the processor 110 and the controller 120 may be implemented together in one chip, and thus may be physically indistinguishable.
  • the implementation of such hardware resources may be changed by technology development or design change. Therefore, although it is understood that the functions, operations, and structures of the processor 110 and the controller 120 are distinguished from each other, the division may be interpreted differently according to embodiments.
  • the processor 110 generates matching information between the guide and the tooth image including the bonding position of the bracket according to the orthodontic planning.
  • the controller 120 overlaps the guide with the tooth image based on the generated matching information.
  • a dental image is input to the device.
  • the input dental image is an example, but not limited to, an image of the teeth of the orthodontic patient waiting for orthodontic treatment.
  • the dental image may be an image of photographing a patient's teeth in real time at the time when the device 100 operates.
  • each tooth-specific bracket for this patient may be planned in advance.
  • Such planning may be automatically generated by software using medical image data of a patient's dental state, and / or may include a surgical plan manually generated by a medical person with reference to such data.
  • a medical practitioner takes an oral impression, builds a model, and obtains scan data. At this time, if necessary, attach the radio fake point. Then, CT scan is performed, and the scan data and CT scan results are matched to plan the adhesive position of the bracket for each tooth. While there are many ways of planning, it is understood throughout this specification that planning includes planning for what kind of brackets at which locations for each tooth.
  • a matching marker may be attached to the surgical site immediately before surgery. After the impression is taken, scan or oral scan to obtain the data, and match this data with the matching of the scan data and CT scan result. Later, during the actual operation, the captured image is matched with this data and displayed as an image.
  • the orthodontic guide device 100 recognizes a difference between a coordinate system of a camera viewpoint (called an object viewpoint) and a reference coordinate system which is a reference of 3D coordinates in the planning, by using a tooth image which is currently photographed and input.
  • This process can be understood as calculating a coordinate transformation function (or transformation vector) between the reference coordinate system and the object coordinate system.
  • coordinate transformation is performed to synthesize virtual information on a real object or an image of an object so that augmented reality may be precisely provided.
  • FIG. 2A illustrates a state in which the guide 220 is augmented reality on the display device 210 by the orthodontic guide device according to an embodiment.
  • Such photographing may be performed by a stand alone camera, but according to an embodiment, may be performed by a camera attached to glasses for augmented reality worn by a medical person.
  • the present invention is not limited to photographing an image in a wearable device, such as a wearable device in glasses, and providing augmented reality in the device.
  • a wearable device such as a wearable device in glasses
  • providing augmented reality in the device may be photographing an image in a wearable device, such as a wearable device in glasses, and providing augmented reality in the device.
  • the wearable device in the form of glasses will be described below. Again, these wearable devices are just one example application.
  • a device in the form of a transparent display is also possible.
  • the transparent display positioned between the medical practitioner and the patient conducting the surgery allows the medical practitioner to operate more freely and comfortably.
  • FIG. 2A is a view illustrating a guide for orthodontic dental augmented reality technique in a spectacle wearable device according to this exemplary application.
  • the guide 220 is information indicating an adhesive position of the bracket for each tooth based on the calibration planning, and is represented by a dotted line in the embodiment of FIG. 2A.
  • the guide 220 may be distributed according to the tooth arrangement based on the feature points in the oral cavity.
  • the feature points used in the generation of the guide and the feature points in the tooth image (or the intraoral image) currently identified through the display device 210 may be used. By matching them with each other, the guide can accurately indicate the bonding position.
  • Guide 220 may further include a bracket order displayed on one side of the adhesive position of the bracket. In addition, it may further include related information such as the type of the bracket, the bonding order.
  • FIG. 2B illustrates an embodiment of bonding the bracket 230 according to a guide according to one embodiment.
  • the operator can use the bracket holder to accurately position the bracket 230 at the bonding position along the guide displayed in the form of augmented reality.
  • the orthodontic guide device may calculate the overlap rate between the guide and the bracket, and update the calculated overlap rate to the guide. That is, the display device may display in real time how much the bracket and the guide overlap, that is, how accurately the adhesive is bonded.
  • the orthodontic guide device when the bonding of the bracket at the current position is completed, the guide corresponding to the next sequence or the thickness of the display to give the effect of the bracket adhesion to the operator to the operator You can also guide.
  • 3A is a view for explaining an embodiment of matching a guide and a dental image by displaying a feature point 310 on a palatal rugae of the palate.
  • 3B is a view for explaining an embodiment of matching a guide and a tooth image by displaying a feature point 320 on a tooth.
  • Figure 3c is a view for explaining an embodiment of matching the guide and the teeth image using the feature point 330 included in the information of one tooth. Since each tooth is different in shape and size, matching using only one tooth information is also possible.
  • the information of one tooth may include, for example, three or more feature points that are not on the same line.
  • an embodiment of matching the image of a close-up image of a bracket-adhesive target by using information about one tooth regardless of the surrounding teeth is effective. Can be used.
  • the dental orthodontic guide device When the camera linked to the wearable device photographs and sends a patient's dental image, the dental orthodontic guide device recognizes the object coordinate system at the camera viewpoint using a plurality of feature points included in the dental image.
  • the tooth image may not be an image including only a tooth, but may be interpreted as an image of an intraoral cavity including a tooth.
  • the plurality of points is a feature point included in at least one of a gum and a tooth.
  • the gum generally refers to soft tissue surrounding the alveolar bone, but may also mean both soft tissue and hard tissue.
  • Such a feature point may be a corner of a tooth, an interdental point between a tooth and a tooth, a palatal rugae, and a palatal incisal paplla.
  • This markerless based embodiment is possible because multidimensional feature points are extracted to a fairly precise level in existing teeth.
  • teeth protrude outwards and are commonly present in 3D data such as X-rays and CTs, it is very easy to extract tooth feature points from a dental image and match them with 3D data.
  • marker based recognition is also possible. Since the image of the patient's mouth is taken by X-ray or CT to facilitate the matching and coordinate transformation of feature points only when the marker is taken, the material used may be a material having radiopaque or radiocontrast characteristics. For example, as illustrated by a reference numeral 310 of FIG. 3A, the points may be points made of a radiopaque material previously placed by a medical person on the patient's gum or palate. For example, it is a gta capture or an impermeable resin block.
  • points in which a medical person has previously tattooed a tattoo on a gum or a tooth may be used.
  • Various similar embodiments may exist and the listed embodiments are illustrative rather than limiting.
  • the markers can be precisely aligned between the real-time image and the CT image data during surgery by additionally placing the marker and performing the scan again.
  • the guide overlapping the dental image may have various shapes such as a dotted line, a solid line, an arrow, and an actual bracket shape.
  • the guide may be displayed as text or an image together with information indicating the adhesive position of the bracket. For example, the patient's name, sex, age, disease classification, how many teeth are currently being prepared for adhesion, and comments on specifics previously left by the practitioner may optionally be presented. These various visual processes can be prepared in a variety of ways to assist the caregiver and to prevent any possible medical mistakes.
  • the guide information may be presented together with the visual guideline or optionally voice.
  • Figure 3d shows a state of guiding the placement position of the root and orthodontic screw with augmented reality by the orthodontic guide device according to one embodiment.
  • the orthodontic guide device according to one embodiment may be used to assist the operator in placing the orthodontic screw in the patient's alveolar bone without damaging the patient's root.
  • Orthodontic screws are generally placed in the alveolar bone between the roots to move the teeth in the desired direction without anchorage loss.
  • the roots are narrow, so that the root of the patient may be damaged when the orthodontic screw is placed depending on the operator's prediction. Therefore, if the operator can confirm the position of the patient's root through augmented reality when placing the orthodontic screw can greatly reduce the risk of damage to the patient's root.
  • the orthodontic guide device may overlap and display a root image 340 representing the root of the patient in a dental image of the oral cavity of the patient in real time.
  • the root image 340 and / or the screw placement position guide 350 of the patient may be implemented in augmented reality in a dental image of the patient's mouth taken in real time. In this way, the operator can easily check the position of the root of the patient, it is possible to prevent the root damage of the patient at the time of orthodontic screw placement.
  • the CT image may be used to obtain a root image for augmented reality.
  • a method of extracting a 3D image of a tooth from a CT image and matching a crown portion of the extracted 3D image of the tooth with a crown portion in a dental image of the oral cavity may be used.
  • a 3D image of a tooth extracted from a tooth and a gum which is a target region of a patient
  • a tooth image corresponding to each tooth in the tooth image is generated, and the root image within the tooth image. May be overlapped with augmented reality.
  • based on the 3D image of the tooth can generate a screw placement position guide 350 that can prevent root damage in accordance with the orthodontic planning and overlap it in the tooth image.
  • the bracket 360 may be used as a marker to implement augmented reality.
  • the accuracy of tooth recognition in the matching step can be improved by utilizing the bracket 360 in the dental image as a marker.
  • 3E is a diagram for describing a process of identifying an object coordinate system, according to an exemplary embodiment.
  • markers may be displayed at each vertex in the form of an equilateral triangle in order to reduce the amount of calculation and to be accurate.
  • the accuracy of image recognition may be improved by placing two or more marker portions of the equilateral triangle shape.
  • the material used as a marker may be a material having radiopaque or radiocontrast characteristics. .
  • these points may be points of radiopaque material previously placed by a medical person on the patient's gum or palate.
  • a marker As a marker, a gata captureer, a pin, a tattoo, or the like may be used.
  • the gatapocher is used as a conventional dental article and can be used as a marker according to embodiments.
  • a pin with a radiopaid material disposed on the head portion may be used, and in cases where it is difficult to insert a physical form into the patient's gums, a point where a medical person has previously tattooed a gum or a tooth may be used. It may be.
  • Various similar embodiments may exist and the listed embodiments are illustrative rather than limiting.
  • Position vector of camera providing tooth image for augmented reality vector The direction vector from to the position of the first marker The direction vector to the position of the second marker The direction vector to the position of the third marker
  • the position vector of each marker And Is expressed as the following equation.
  • the scalar values r, s and t are the distance between the camera position and the markers. Of course, in the example where there is one marker, these vectors may correspond to a plurality of points in the marker.
  • Principal vector as above Is computed for one or more, and is compared to a vector in the reference coordinate system in which the original 3D data was constructed, the vector transforms between coordinate systems using vector operations. Can be obtained. This To convert the object coordinate system to the reference coordinate system, and vice versa. Inverse of Using a transforming the planning guide on the reference coordinate system to the real object coordinate system may be used.
  • FIG. 4 illustrates a light polymerizer control apparatus 400 according to an embodiment.
  • the photopolymerizer control apparatus 400 may determine whether the bracket is properly positioned on the tooth based on the calibration planning.
  • the light source may be controlled to irradiate ultraviolet rays when it is properly positioned as a result of determination.
  • the photopolymerizer control apparatus 400 may include a processor 410 and a controller 420.
  • the processor 410 determines the activation of the photopolymerizer based on the position of the bracket with respect to the tooth. That is, the processor 410 may determine the activation of the photopolymerizer when the position of the bracket with respect to the teeth meets a predetermined criterion. For example, the corrected position set in the tooth may be predetermined according to the corrected plan, and the processor 410 may determine whether the bracket meets a predetermined criterion by determining whether the bracket is properly positioned at the corrected position.
  • the processor 410 may determine that the predetermined position meets a predetermined criterion when the corrected position and the position of the bracket overlap the threshold value. In addition, the processor 410 may determine that the predetermined position meets a predetermined criterion when the correction position and the bracket position set on the tooth have an error of less than or equal to a threshold value.
  • the controller 420 controls the photopolymerizer to radiate ultraviolet rays to the bracket in response to the control signal.
  • the controller 420 may control the photopolymerizer to irradiate ultraviolet rays by controlling at least one of an irradiation amount and an irradiation time point according to the control signal.
  • the control signal may be generated by the switching module 430 connected to the photopolymerizer and the wired or wireless.
  • generation of the control signal may be controlled according to the switching module 430 controlled on and off by a foot switch.
  • control signal may be generated through the switching module 430 in response to a predetermined voice signal.
  • FIG. 5 is a flowchart illustrating a method of operating a dental orthodontic guide device according to an embodiment.
  • the operation method of the orthodontic guide device or the orthodontic guide method according to an embodiment generates the matching information between the tooth information and the guide information including the adhesive position of the bracket according to the orthodontic planning (step 501).
  • the orthodontic guide method may identify a plurality of points associated with a tooth in an input image, and generate positions of the identified points as the matching information.
  • the feature points included in at least one of the gum and teeth may be used as points.
  • at least one of the plurality of points may correspond to a radiopaque material disposed on the gum or tooth, and may correspond to at least one of a tattoo point pre-colored on the gum or tooth and a color tape attached thereto. have.
  • the orthodontic guide method may overlap the tooth image with the guide information based on the generated matching information (step 502). Then, the orthodontic guide method outputs a matching process between the bracket and the guide information (step 503). For example, the orthodontic guide method displays the overlap rate between the bracket and the guided bonding position in%, and the operator can check the displayed overlap rate and use it for positioning of the bracket, thereby improving the accuracy according to the adhesion. .
  • FIG. 6 is a flowchart illustrating a method of operating a light polymerizer control apparatus according to an embodiment.
  • the method of operating the photopolymerizer control apparatus or the photopolymerizer control method according to an embodiment checks the position of the bracket with respect to the tooth (step 601).
  • the calibration position set in the tooth may be previously determined according to the calibration plan, and the photopolymerizer control method according to an embodiment may monitor in real time the calibration position determined in accordance with the calibration plan and the relative position of the tracked bracket.
  • the photopolymerizer control method determines whether the position of the bracket with respect to the tooth identified in step 601 meets a predetermined criterion (step 602).
  • the position of the bracket may be determined by determining whether or not the corrected position of the tooth and the position of the bracket overlap the threshold value or more according to the corrective plan, or whether the set corrected position and the position of the bracket have an error below the threshold value. It can be determined whether the s meet the predetermined criteria.
  • the method of controlling the photopolymerizer may control the photopolymerizer to be activated when the position of the bracket with respect to the identified tooth meets a predetermined criterion as a result of the determination of step 602 (step 603).
  • the photopolymerizer control method may control the photopolymerizer to be activated when the set calibration position and the bracket position overlap more than the threshold value or when the set calibration position and the bracket position have an error less than or equal to the threshold value.
  • the photopolymerizer control method if the determination result of the step 602, the bracket position with respect to the identified tooth does not meet a predetermined criterion to branch to step 601 to check the position of the bracket relative to the tooth can be performed. have.
  • the photopolymerizer control method branches to step 601 when the set calibration position and the bracket position overlap below the threshold value, or when the set calibration position and the bracket position have an error greater than or equal to the threshold value. Confirmation process can be performed.
  • the photopolymerizer can irradiate ultraviolet rays.
  • the photopolymer control method receives a control signal from the switching module when the photopolymerizer is activated (step 604) and controls the photopolymerizer to irradiate the bracket with ultraviolet rays according to the received control signal (step 605).
  • the apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components.
  • the devices and components described in the embodiments may be, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable arrays (FPAs), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • OS operating system
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include.
  • the processing device may include a plurality of processors or one processor and one controller.
  • other processing configurations are possible, such as parallel processors.
  • the software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device.
  • Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted.
  • the software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable recording media.
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Abstract

The present invention relates to an orthodontic guide device, and more specifically, to a device providing visual guidance and feedback to a health care provider in the orthodontic process of bonding brackets to teeth, the orthodontic guide device, according to one aspect, comprising: a processor generating matching information between an image of teeth and a guide comprising bonding locations of brackets according to orthodontic planning; and a control unit overlapping the guide onto the image of teeth on the basis of the generated matching information.

Description

치아교정 가이드 장치 방법Orthodontic guide device method
치아교정을 위한 가이드 장치에 연관되며, 보다 상세하게는 브라켓을 치아에 접착하는 치아 교정 과정에서 의료인에게 시각적 가이드와 피드백을 제공하는 장치에 연관된다.It relates to a guide device for orthodontics, and more particularly to a device for providing visual guidance and feedback to a medical practitioner in the orthodontic process of adhering the bracket to the teeth.
교정치료는 치아 배열의 이상에 대해 예방하거나 치료하는 일련의 시술을 의미한다.Orthodontic treatment refers to a series of procedures that prevent or treat abnormalities in tooth alignment.
특히, 교정치료란 단순히 비뚤어진 치아를 가지런히 하는 것을 포함하여 성장 과정에서 발생할 수 있는 여러 가지 골격적 부조화를 바로잡아 정상적인 기능을 발휘할 수 있도록 하여 건강한 구강 조직으로 교정해 주는 것을 의미한다.In particular, orthodontic treatment means correcting healthy oral tissues by correcting various skeletal inconsistencies that may occur during the growth process, including simply arranging crooked teeth, so as to function normally.
소아나 청소년의 교정 치료는 악골 성장이 완료되기 전의 교정에 해당하기 때문에, 악골 성장을 조절하면서 교정을 할 수 있다. 그러나, 성인 등 악골 성장이 완료된 후에는 고정식 교정기나 가철식 교정기 등을 이용하여 치열의 위치를 바로 잡아주는 교정치료가 필요하다.Orthodontic treatment in children and adolescents is corrected before the growth of the jaw bone growth, and can be adjusted while controlling the jaw growth. However, after the growth of jaw bone such as adults is completed, orthodontic treatment is required to correct the position of the teeth using a fixed braces or removable braces.
교정치료를 위해서는, 교정 플랜에 따라 플래닝된 치아별 위치에 브라켓을 고정시키는 과정이 필요하다.For orthodontic treatment, it is necessary to fix the bracket in the tooth position planned according to the orthodontic plan.
이러한 과정을 위해서, 치아와 브라켓 간 접착제를 통해 접착하는 방법이 주로 사용된다.For this process, the method of bonding through the adhesive between the teeth and the bracket is mainly used.
일측에 따르면, 컴퓨팅 단말에 의해 구현되는 치아 교정 가이드 장치는 치아 교정 플래닝에 따른 브라켓의 접착 위치 및 방향을 포함하는 가이드와 치아 영상간 매칭 정보를 생성하는 프로세서, 및 상기 생성된 매칭 정보에 기초하여, 상기 가이드를 상기 치아 영상에 오버랩하는 제어부를 포함한다.According to one side, the orthodontic guide device implemented by the computing terminal is a processor for generating matching information between the guide and the teeth image including the bonding position and the orientation of the bracket according to the orthodontic planning, and based on the generated matching information And a controller configured to overlap the guide with the tooth image.
일실시예에서, 상기 브라켓의 접착 위치 및 방향은 십자를 포함하는 증강현실로 구현된 영상으로 나타날 수 있다. 일실시예에서, 상기 브라켓의 접착 위치 및 방향은 상기 브라켓의 3D 이미지가 상기 브라켓이 접착될 위치에 증강현실로 구현된 영상으로 나타날 수 있다.In one embodiment, the adhesive position and direction of the bracket may be represented by an image implemented with augmented reality including a cross. In one embodiment, the bonding position and the direction of the bracket may be represented as an image implemented with augmented reality in the position where the bracket is to be bonded to the 3D image.
일실시예에서, 상기 치아 교정 가이드 장치는 상기 가이드가 오버랩된 치아 영상을 제공하는 디스플레이를 더 포함하고, 상기 디스플레이는 카메라를 구비한 안경형 웨어러블 기기를 포함할 수 있다.In one embodiment, the orthodontic guide device may further include a display for providing a tooth image overlapping the guide, the display may include a spectacle wearable device having a camera.
다른 일실시예에서, 상기 치아 교정 가이드 장치는 상기 가이드가 오버랩된 치아 영상을 제공하는 디스플레이를 더 포함하고, 상기 디스플레이는 카메라 및 상기 카메라와 연동된 외부형 디스플레이를 포함할 수 있다.In another embodiment, the orthodontic guide device may further include a display that provides a tooth image in which the guide is overlapped, and the display may include a camera and an external display linked to the camera.
일실시예에서, 상기 프로세서는 상기 치아 영상에서 치아에 연관되는 복수 개의 포인트들을 식별하고, 상기 식별된 포인트들의 위치들을 상기 매칭 정보로 생성한다.In one embodiment, the processor identifies a plurality of points associated with a tooth in the tooth image, and generates positions of the identified points as the matching information.
일실시예에서, 상기 복수 개의 포인트들은 잇몸 및 치아 중 적어도 하나에 포함되는 특징점이다.In one embodiment, the plurality of points are feature points included in at least one of the gum and tooth.
일실시예에서, 상기 복수 개의 포인트들 중 적어도 하나는 잇몸 또는 치아에 배치되는 래이디오패이크 물질(radiopaque material)에 대응한다.In one embodiment, at least one of the plurality of points corresponds to a radiopaque material disposed on the gum or tooth.
일실시예에서, 상기 복수 개의 포인트들 중 적어도 하나는 잇몸 또는 치아에 배치되는 양형 돌출부 블록 또는 음형의 함몰부에 대응한다.In one embodiment, at least one of the plurality of points corresponds to a positive protrusion block or a negative depression disposed on the gum or tooth.
일실시예에서, 상기 복수 개의 포인트들 중 적어도 하나는 잇몸 또는 치아에 미리 착색되는 타투 포인트 및 부착되는 칼라 테이프 중 적어도 하나에 대응하는 치아 교정 가이드 장치.In one embodiment, at least one of the plurality of points corresponds to at least one of a tattoo point pre-coloured to the gum or tooth and a color tape attached thereto.
다른 일측에 따르면, 컴퓨팅 단말에 의해 구현되는 치아 교정 가이드 장치는, 치아 교정 플래닝에 따른 브라켓의 접착 위치 및 치아 영상 내의 브라켓의 위치 간의 오차를 계산하는 프로세서, 및 상기 오차가 임계값 이하인 경우 시술자에게 알림을 제공하기 위한 컨트롤 신호를 발생시키는 신호 생성부를 포함한다.According to another aspect, the orthodontic guide device implemented by the computing terminal, a processor for calculating an error between the position of the bracket in the dental image and the adhesive position of the bracket according to the orthodontic planning, and if the error is less than the threshold value to the operator It includes a signal generator for generating a control signal for providing a notification.
일실시예에서, 상기 알림은 증강현실로 구현된 시각적 표식이 디스플레이를 통해 제공되는 것을 포함하는 치아 교정 가이드 장치. 일실시예에서, 상기 알림은 상기 시술자에게 제공되는 효과음을 포함하는 치아 교정 가이드 장치.In one embodiment, the notification comprises orthodontic guide device comprising a visual marker implemented in augmented reality provided via a display. In one embodiment, the notification comprises orthodontic guide device comprising a sound effect provided to the operator.
다른 일측에 따르면, 광중합기 제어 장치 컴퓨팅 단말에 의해 구현되는 광중합기 제어 장치는 치아에 대한 브라켓의 위치를 기반으로 광중합기의 활성화를 결정하는 처리부, 및 상기 광중합기가 활성화된 경우, 컨트롤 신호에 응답하여 상기 브라켓에 광을 조사하도록 상기 광중합기를 제어하는 제어부를 포함한다.According to the other side, the photopolymer control device implemented by the photopolymer control device computing terminal is a processor for determining the activation of the photopolymerizer based on the position of the bracket with respect to the teeth, and when the photopolymerizer is activated, in response to the control signal And a controller for controlling the photopolymerizer to irradiate light to the bracket.
일실시예에서, 상기 처리부는, 상기 치아에 대한 브라켓의 위치가 미리 지정된 기준에 부합하는 경우, 상기 광중합기의 활성화를 결정한다.In one embodiment, the processing unit determines the activation of the photopolymerizer when the position of the bracket relative to the tooth meets a predetermined criterion.
일실시예에서, 상기 처리부는, 치아 교정 플래닝에 따라 상기 치아에 설정된 치아 교정 위치와 상기 브라켓의 위치가 임계값 이상으로 중첩되는 경우, 상기 미리 지정된 기준에 부합하는 것으로 판단한다.In one embodiment, the processing unit, if the orthodontic position set on the tooth and the position of the bracket overlaps more than a threshold value according to the orthodontic planning, determines that the predetermined criteria meet.
일실시예에서, 상기 컨트롤 신호는 상기 광중합기와 유무선으로 연결되는 스위칭 모듈에 의해 생성된다.In one embodiment, the control signal is generated by a switching module connected to the photopolymerizer and wired or wireless.
일실시예에서, 상기 스위칭 모듈은, 풋 스위치(foot switch)에 의해 온 오프 제어되고, 상기 온 오프 제어에 따라 상기 컨트롤 신호의 생성을 제어한다.In one embodiment, the switching module is controlled on and off by a foot switch and controls the generation of the control signal in accordance with the on and off control.
일실시예에서, 상기 스위칭 모듈은, 미리 지정된 음성신호에 응답하여 상기 컨트롤 신호를 생성한다.In one embodiment, the switching module generates the control signal in response to a predetermined voice signal.
일실시예에서, 상기 제어부는, 상기 컨트롤 신호에 따라, 조사량 및 조사시점 중에서 적어도 하나를 제어하여 상기 광을 조사하도록 상기 광중합기를 제어한다.In one embodiment, the control unit, according to the control signal, controls the photopolymerizer to irradiate the light by controlling at least one of the irradiation amount and the irradiation time.
다른 일측에 따르면, 컴퓨팅 단말에 의해 구현되는 치아 교정 가이드 장치의 동작 방법은 치아 교정 플래닝에 따른 브라켓의 접착 위치를 포함하는 가이드와 치아 영상간 매칭 정보를 생성하는 단계, 및 상기 생성된 매칭 정보에 기초하여, 상기 가이드를 상기 치아 영상에 오버랩하는 단계를 포함한다.According to another aspect of the present invention, an operation method of a dental orthodontic guide device implemented by a computing terminal may include generating matching information between a guide and a tooth image including an adhesive position of a bracket according to dental orthodontic planning, and generating the matching information. Based on the overlapping of the guide on the tooth image.
다른 일측에 따르면, 컴퓨팅 단말에 의해 구현되는 광중합기 제어 방법은 처리부에서, 치아에 대한 브라켓의 위치가 미리 지정된 기준에 부합하는 경우, 광중합기의 활성화를 결정하는 단계, 및 제어부에서, 상기 광중합기가 활성화된 경우, 컨트롤 신호에 응답하여 상기 브라켓에 광을 조사하도록 상기 광중합기를 제어하는 단계를 포함한다.According to another aspect, the photopolymer control method implemented by the computing terminal, in the processing unit, if the position of the bracket with respect to the tooth meets a predetermined criterion, determining the activation of the photopolymerizer, and in the control unit, the photopolymerizer If activated, controlling the photopolymerizer to irradiate the bracket with light in response to a control signal.
다른 일측에 따르면, 컴퓨팅 단말에 의해 구현되는 치아 교정 가이드 장치는 치근을 포함하는 치아의 3D 이미지와 치아 영상간 매칭 정보를 생성하는 프로세서, 및 상기 생성된 매칭 정보에 기초하여, 상기 치근을 나타내는 이미지를 상기 치아 영상에 오버랩하는 제어부를 포함한다.According to another aspect, the orthodontic guide device implemented by the computing terminal is a processor for generating matching information between the 3D image and the teeth image of the tooth including the root, and based on the generated matching information, the image representing the root It includes a control that overlaps the tooth image.
일실시예에서, 상기 프로세서는 CT 영상으로부터 상기 치아의 3D 이미지를 추출하고, 상기 치아의 3D 이미지와 대응되는 상기 치아 영상 내의 치아를 식별하여 상기 매칭 정보를 생성한다.In one embodiment, the processor extracts a 3D image of the tooth from a CT image, and identifies the tooth in the tooth image corresponding to the 3D image of the tooth to generate the matching information.
일실시예에서, 상기 프로세서는 치아 교정 플래닝에 따른 스크류 식립 위치 가이드를 생성하고, 상기 제어부는 상기 스크류 식립 위치 가이드를 상기 치아 영상에 오버랩한다.In one embodiment, the processor generates a screw placement position guide according to the orthodontic planning, and the controller overlaps the screw placement position guide on the tooth image.
도 1은 일실시예에 따른 치아 교정 가이드 장치를 도시한다.1 illustrates an orthodontic guide device according to an embodiment.
도 2a는 일실시예에 따른 치아 교정 가이드 장치에 의해 디스플레이 장치에 가이드가 증강현실로 구현되는 모습을 도시한다.2A illustrates a state in which a guide is implemented as an augmented reality on a display device by a dental orthodontic guide device according to an embodiment.
도 2b는 일실시예에 따른 가이드에 따라 브라켓을 접착하는 실시예를 도시한다.2B illustrates an embodiment of bonding a bracket according to a guide according to an embodiment.
도 3a는 입천장의 루게(palatal rugae) 상에 특징 포인트를 표시하여 가이드와 치아 영상을 매칭하는 실시예를 설명하기 위한 도면이다.3A is a view for explaining an embodiment of matching a guide and a dental image by displaying a feature point on a palatal rugae of the palate.
도 3b는 치아 상에 특징 포인트를 표시하여 가이드와 치아 영상을 매칭하는 실시예를 설명하기 위한 도면이다.3B is a view for explaining an embodiment of matching a guide and a tooth image by displaying a feature point on a tooth.
도 3c는 하나의 치아의 정보에 포함된 특징 포인트를 이용하여 가이드와 치아 영상을 매칭하는 실시예를 설명하기 위한 도면이다.3C is a view for explaining an embodiment of matching a guide and a tooth image by using feature points included in information of one tooth.
도 3d는 일실시예에 따른 치아 교정 가이드 장치에 의해 치근 및 교정용 스크류의 식립 위치를 증강현실로 가이드하는 모습을 도시한다.Figure 3d shows a state of guiding the placement position of the root and orthodontic screw with augmented reality by the orthodontic guide device according to one embodiment.
도 3e는 일실시예에 따른 오브젝트 좌표계의 식별 과정을 설명하기 위한 도면이다.3E is a diagram for describing a process of identifying an object coordinate system, according to an exemplary embodiment.
도 4는 일실시예에 따른 광중합기 제어 장치를 도시한다.4 illustrates an apparatus for controlling a photopolymerizer according to an embodiment.
도 5는 일실시예에 따른 치아 교정 가이드 장치의 동작 방법을 도시하는 흐름도이다.5 is a flowchart illustrating a method of operating a dental orthodontic guide device according to an embodiment.
도 6은 일실시예에 따른 광중합기 제어 장치의 동작 방법을 도시하는 흐름도이다.6 is a flowchart illustrating a method of operating a light polymerizer control apparatus according to an embodiment.
이하에서, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 권리범위는 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of rights is not limited or limited by these embodiments. Like reference numerals in the drawings denote like elements.
아래 설명에서 사용되는 용어는, 연관되는 기술 분야에서 일반적이고 보편적인 것으로 선택되었으나, 기술의 발달 및/또는 변화, 관례, 기술자의 선호 등에 따라 다른 용어가 있을 수 있다. 따라서, 아래 설명에서 사용되는 용어는 기술적 사상을 한정하는 것으로 이해되어서는 안 되며, 실시예들을 설명하기 위한 예시적 용어로 이해되어야 한다.The terminology used in the description below has been selected to be general and universal in the art to which it relates, although other terms may vary depending on the development and / or change in technology, conventions, and preferences of those skilled in the art. Therefore, the terms used in the following description should not be understood as limiting the technical spirit, and should be understood as exemplary terms for describing the embodiments.
또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세한 그 의미를 기재할 것이다. 따라서 아래 설명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 명세서 전반에 걸친 내용을 토대로 이해되어야 한다.In addition, in certain cases, there is a term arbitrarily selected by the applicant, and in this case, the meaning thereof will be described in detail in the corresponding description. Therefore, the terms used in the following description should be understood based on the meanings of the terms and the contents throughout the specification, rather than simply the names of the terms.
도 1은 일실시예에 따른 치아 교정 가이드 장치(100)를 도시한다.1 illustrates a dental orthodontic guide device 100 according to one embodiment.
치아 교정 가이드 장치(100)는 프로세서(110) 및 제어부(120)를 포함할 수 있다. 장치(100)는 컴퓨팅 단말에 의해 적어도 일시적으로 구현될 수 있다. 컴퓨팅 단말은 퍼스널 컴퓨터, 의료용 기기, 스마트폰, 태블릿 컴퓨터, 웨어러블 디바이스 등 임의의 형태의 전자 기기를 포함한다. 프로세서(110) 및 제어부(120)는 각각 이러한 전자 기기에 포함되는 물리적 및/또는 논리적 엘리먼트일 수 있다. 이를테면 전용 하드웨어(dedicated hardware) 또는 소프트웨어나 오퍼레이팅 시스템에 의해 제어되는 범용 연산 자원에 의해 프로세서(110) 및 제어부(120)가 구현될 수 있다. 또한 프로세서(110)와 제어부(120)가 하나의 칩에서 함께 구현되는, 따라서 물리적으로 구분되지 않는 것일 수도 있으며, 이러한 하드웨어 자원의 구현은 기술의 발달이나 설계 변경에 의해 얼마든지 변경될 수 있다. 따라서 프로세서(110)와 제어부(120)의 기능과 동작 및 구조가 서로 구분되는 것으로 이해되지만 실시예에 따라 이러한 구분이 다르게 해석되는 경우도 있을 수 있다.The orthodontic guide device 100 may include a processor 110 and a controller 120. Apparatus 100 may be implemented at least temporarily by a computing terminal. The computing terminal includes any type of electronic device, such as a personal computer, medical device, smartphone, tablet computer, wearable device. The processor 110 and the controller 120 may each be a physical and / or logical element included in such an electronic device. For example, the processor 110 and the controller 120 may be implemented by dedicated hardware or general purpose computing resources controlled by software or an operating system. In addition, the processor 110 and the controller 120 may be implemented together in one chip, and thus may be physically indistinguishable. The implementation of such hardware resources may be changed by technology development or design change. Therefore, although it is understood that the functions, operations, and structures of the processor 110 and the controller 120 are distinguished from each other, the division may be interpreted differently according to embodiments.
프로세서(110)는 치아 교정 플래닝에 따른 브라켓의 접착 위치를 포함하는 가이드와 치아 영상간 매칭 정보를 생성한다. 또한, 제어부(120)는 생성된 매칭 정보에 기초하여, 가이드를 상기 치아 영상에 오버랩한다.The processor 110 generates matching information between the guide and the tooth image including the bonding position of the bracket according to the orthodontic planning. In addition, the controller 120 overlaps the guide with the tooth image based on the generated matching information.
일실시예에 따르면 장치에 치아 영상이 입력된다. 입력되는 치아 영상은 예시적으로, 그러나 한정되지 않게, 치아 교정을 기다리고 있는 교정 환자의 치아를 촬영한 영상이다. 치아 영상은 장치(100)가 동작하고 있는 순간 실시간으로 환자의 치아를 촬영하고 있는 영상일 수 있다.According to an embodiment, a dental image is input to the device. The input dental image is an example, but not limited to, an image of the teeth of the orthodontic patient waiting for orthodontic treatment. The dental image may be an image of photographing a patient's teeth in real time at the time when the device 100 operates.
이 환자에 대해 각 치아별 브라켓의 접착 위치는 미리 플래닝되어 있을 수 있다. 이러한 플래닝은 환자의 치아 상태를 촬영한 의료 영상 데이터를 이용하여 소프트웨어에 의해 자동으로 생성된 것일 수도 있고, 및/또는 의료인이 이러한 데이터를 참고하여 매뉴얼하게 생성해 놓은 수술 계획을 포함하기도 한다.The adhesion position of each tooth-specific bracket for this patient may be planned in advance. Such planning may be automatically generated by software using medical image data of a patient's dental state, and / or may include a surgical plan manually generated by a medical person with reference to such data.
교정수술 전까지의 과정에서, 의료인이 구강 인상을 채득하고 모델을 제작한 다음 스캔 데이터를 확보한다. 이 때 필요 시 래이디오패이크 포인트를 부착하여 진행한다. 그리고 CT 촬영을 하고, 스캔 데이터와 CT 촬영 결과를 정합하여 각 치아별 브라켓의 접착 위치를 플래닝 하는 것이다. 플래닝에는 여러 가지가 있지만 본 명세서 전반적으로는 플래닝이, 각 치아별 어느 위치에서 어떠한 종류의 브라켓을 접착할 것인지에 대한 계획을 포함하는 것으로 이해된다.In the process up to orthodontic surgery, a medical practitioner takes an oral impression, builds a model, and obtains scan data. At this time, if necessary, attach the radio fake point. Then, CT scan is performed, and the scan data and CT scan results are matched to plan the adhesive position of the bracket for each tooth. While there are many ways of planning, it is understood throughout this specification that planning includes planning for what kind of brackets at which locations for each tooth.
한편 이렇게 플래닝이 되고 나면 수술 직전 수술 부위에 매칭 마커가 부착될 수 있다. 인상 채득 후 스캔 하거나 구강 스캔하여 데이터를 확보하고 이 데이터를 앞서 말한 스캔 데이터와 CT 촬영 결과의 매칭과 일치시킨다. 나중에 실제 수술 시에는 촬영된 영상이 이 데이터와 정합되어 영상으로 나타난다.On the other hand, after the planning is done, a matching marker may be attached to the surgical site immediately before surgery. After the impression is taken, scan or oral scan to obtain the data, and match this data with the matching of the scan data and CT scan result. Later, during the actual operation, the captured image is matched with this data and displayed as an image.
치아 교정 가이드 장치(100)는 현재 촬영되어 입력되고 있는 치아 영상을 이용하여 카메라 시점 (오브젝트 시점이라고 한다)의 좌표계와 상기 플래닝에서의 3D 좌표의 기준이 되는 기준 좌표계 사이의 차이를 인식한다. 이러한 과정은 상기 기준 좌표계와 상기 오브젝트 좌표계 사이의 좌표 변환 함수 (또는 변환 벡터)를 계산하는 것으로 이해될 수 있다. 증강 현실이 정밀하게 제공되기 위해 실제 오브젝트 또는 오브젝트의 영상 위에 가상 정보를 합성하여 제공하기 위해 이러한 좌표 변환을 하는 것이다.The orthodontic guide device 100 recognizes a difference between a coordinate system of a camera viewpoint (called an object viewpoint) and a reference coordinate system which is a reference of 3D coordinates in the planning, by using a tooth image which is currently photographed and input. This process can be understood as calculating a coordinate transformation function (or transformation vector) between the reference coordinate system and the object coordinate system. Such coordinate transformation is performed to synthesize virtual information on a real object or an image of an object so that augmented reality may be precisely provided.
도 2a는 일실시예에 따른 치아 교정 가이드 장치에 의해 디스플레이 장치(210)에 가이드(220)가 증강현실로 구현되는 모습을 도시한다.2A illustrates a state in which the guide 220 is augmented reality on the display device 210 by the orthodontic guide device according to an embodiment.
이러한 촬영은 따로 배치된(stand alone) 카메라에 의해서 수행될 수도 있으나, 일실시예에 따르면 의료인이 착용하는 증강현실용 안경에 부착된 카메라에서 수행될 수도 있다. 본 발명이 웨어러블 기기, 이를테면 안경 형태의 웨어러블 기기에서 영상을 촬영하고 증강현실을 이 기기에서 제공하는 것에 한정되는 것은 아니다. 그러나 하나의 구현 가능한 실시예로서 안경 형태의 웨어러블 기기를 이하에서 설명하기로 한다. 다시 강조하건대 이러한 웨어러블 기기는 하나의 예시적 응용에 불과하다.Such photographing may be performed by a stand alone camera, but according to an embodiment, may be performed by a camera attached to glasses for augmented reality worn by a medical person. The present invention is not limited to photographing an image in a wearable device, such as a wearable device in glasses, and providing augmented reality in the device. However, as an exemplary embodiment, the wearable device in the form of glasses will be described below. Again, these wearable devices are just one example application.
한편, 다른 응용에서는 투명한 디스플레이(transparent display) 형태의 기기도 가능하다. 수술을 집도하는 의료인과 환자 사이에 위치하는 투명한 디스플레이 형태가 되면 의료인은 더욱 자유롭고 편하게 수술할 수 있다.In another application, a device in the form of a transparent display is also possible. The transparent display positioned between the medical practitioner and the patient conducting the surgery allows the medical practitioner to operate more freely and comfortably.
도 2a는 이러한 예시적인 응용에 따라 안경형 웨어러블 기기에서 증강 현실 기법으로 치아 교정을 위한 가이드가 이루어지는 모습이 도시된다.FIG. 2A is a view illustrating a guide for orthodontic dental augmented reality technique in a spectacle wearable device according to this exemplary application.
가이드(220)는 교정 플래닝에 기초하여 각 치아별 브라켓의 접착 위치를 나타내는 정보로서, 도 2a의 실시예에서는 점선으로 표현된다. 가이드(220)는 구강 내의 특징점을 기준으로 치아 배열에 따라 분포할 수 있는데, 가이드의 생성에 사용된 특징점과, 현재 디스플레이 장치(210)를 통해 확인되는 치아 영상(또는 구강 내 영상)에서의 특징점을 서로 매칭 시킴으로써, 가이드가 접착 위치를 정확하게 지시할 수 있다.The guide 220 is information indicating an adhesive position of the bracket for each tooth based on the calibration planning, and is represented by a dotted line in the embodiment of FIG. 2A. The guide 220 may be distributed according to the tooth arrangement based on the feature points in the oral cavity. The feature points used in the generation of the guide and the feature points in the tooth image (or the intraoral image) currently identified through the display device 210 may be used. By matching them with each other, the guide can accurately indicate the bonding position.
일실시예에 따른 가이드(220)는 브라켓의 접착 위치의 일측에 표시되는 브라켓 순서를 더 포함할 수 있다. 뿐만 아니라, 브라켓의 종류, 접착 순서 등의 관련 정보들을 더 포함할 수 있다. Guide 220 according to an embodiment may further include a bracket order displayed on one side of the adhesive position of the bracket. In addition, it may further include related information such as the type of the bracket, the bonding order.
도 2b는 일실시예에 따른 가이드에 따라 브라켓(230)을 접착하는 실시예를 도시한다.2B illustrates an embodiment of bonding the bracket 230 according to a guide according to one embodiment.
시술자는, 브라켓 홀더를 이용해서 브라켓(230)을 증강현실 형태로 표시되는 가이드를 따라 접착 위치에 정확하게 위치시킬 수 있다. 예를 들어, 본 발명에 따른 치아 교정 가이드 장치는 가이드와 브라켓 간의 중첩률을 산출하고, 산출된 중첩률을 가이드에 업데이트할 수 있다. 즉, 디스플레이 장치는 브라켓과 가이드가 얼마나 중첩되었는지, 즉 어느 정도의 정확도로 접착되는지를 실시간으로 표시할 수 있다.The operator can use the bracket holder to accurately position the bracket 230 at the bonding position along the guide displayed in the form of augmented reality. For example, the orthodontic guide device according to the present invention may calculate the overlap rate between the guide and the bracket, and update the calculated overlap rate to the guide. That is, the display device may display in real time how much the bracket and the guide overlap, that is, how accurately the adhesive is bonded.
다른 일례로, 본 발명에 따른 치아 교정 가이드 장치는 현재 위치에서의 브라켓 접착이 완료되면, 다음 순서에 해당하는 가이드를 점멸하거나, 굵기를 다르게 표시하는 등의 효과를 주어 브라켓의 접착 순서를 시술자에게 가이드 해줄 수도 있다.In another example, the orthodontic guide device according to the present invention, when the bonding of the bracket at the current position is completed, the guide corresponding to the next sequence or the thickness of the display to give the effect of the bracket adhesion to the operator to the operator You can also guide.
가이드가 브라켓의 접착 위치를 정확하게 가이드 하기 위해서는, 가이드와 치아 영상 간의 정확한 매칭이 필요하다. 이를 위해, 구강 내의 특징 포인트를 지정하고 이 특징 포인트를 이용하여 치아 영상과의 매칭이 가능하다. In order for the guide to accurately guide the adhesive position of the bracket, accurate matching between the guide and the dental image is required. To this end, it is possible to designate a feature point in the oral cavity and use the feature point to match the dental image.
도 3a는 입천장의 루게(palatal rugae) 상에 특징 포인트(310)를 표시하여 가이드와 치아 영상을 매칭하는 실시예를 설명하기 위한 도면이다. 또한, 도 3b는 치아 상에 특징 포인트(320)를 표시하여 가이드와 치아 영상을 매칭하는 실시예를 설명하기 위한 도면이다. 한편, 도 3c는 하나의 치아의 정보에 포함된 특징 포인트(330)를 이용하여 가이드와 치아 영상을 매칭하는 실시예를 설명하기 위한 도면이다. 각각의 치아들은 그 형태 및 크기가 서로 다르기 때문에 하나의 치아의 정보만을 이용한 매칭도 가능하다. 하나의 치아의 정보는 예를 들어 동일한 선상에 있지 않은 세 개 이상의 특징 포인트를 포함할 수 있다. 일반적으로 브라켓의 접착 시에는 정밀한 취급이 요구되어 치아 하나를 클로즈업하게 마련이므로 주변의 치아와 무관하게 하나의 치아에 대한 정보를 이용하여 브라켓 접착 대상 치아를 클로즈업하여 촬영한 영상과 매칭하는 실시예가 효과적으로 이용될 수 있다.3A is a view for explaining an embodiment of matching a guide and a dental image by displaying a feature point 310 on a palatal rugae of the palate. 3B is a view for explaining an embodiment of matching a guide and a tooth image by displaying a feature point 320 on a tooth. On the other hand, Figure 3c is a view for explaining an embodiment of matching the guide and the teeth image using the feature point 330 included in the information of one tooth. Since each tooth is different in shape and size, matching using only one tooth information is also possible. The information of one tooth may include, for example, three or more feature points that are not on the same line. In general, when the bracket is adhered, precise handling is required to close up one tooth, so an embodiment of matching the image of a close-up image of a bracket-adhesive target by using information about one tooth regardless of the surrounding teeth is effective. Can be used.
웨어러블 기기에 연동되는 카메라가 환자의 치아 영상을 촬영하여 보내오면, 치아 교정 가이드 장치는 치아 영상에 포함된 복수 개의 특징점들을 이용하여 카메라 시점의 오브젝트 좌표계를 인식한다. 치아 영상이라 함은 치아만을 포함하는 영상이 아니고, 치아를 포함하는 구강 내를 촬영한 영상으로 해석될 수 있다.When the camera linked to the wearable device photographs and sends a patient's dental image, the dental orthodontic guide device recognizes the object coordinate system at the camera viewpoint using a plurality of feature points included in the dental image. The tooth image may not be an image including only a tooth, but may be interpreted as an image of an intraoral cavity including a tooth.
특징점들은 마커 기반의 인식 또는 마커리스 기반의 인식 어느 쪽도 가능하다. 먼저 마커리스 기반의 인식을 설명한다. 일실시예에 따르면 상기 복수 개의 포인트들은 잇몸 및 치아 중 적어도 하나에 포함되는 특징점이다. 참고로 잇몸은 통상적으로 치조골을 싸고 있는 연조직을 의미하나, 연조직(soft tissue)과 치조골(hard tissue) 둘 다를 의미할 수도 있다. 상기와 같은 특징점은 치아의 모서리, 치아와 치아 사이의 치간 포인트, 입천장의 루게(palatal rugae), 파필라(palatal incisal paplla) 일 수 있다. The feature points can be either marker based or markerless based. First, markerless based recognition will be described. According to one embodiment, the plurality of points is a feature point included in at least one of a gum and a tooth. For reference, the gum generally refers to soft tissue surrounding the alveolar bone, but may also mean both soft tissue and hard tissue. Such a feature point may be a corner of a tooth, an interdental point between a tooth and a tooth, a palatal rugae, and a palatal incisal paplla.
현재 존재하는 치아들에서 다차원의 특징점들이 꽤 정교한 정도로 추출되기 때문에 이러한 마커리스 기반의 실시예가 가능하다. 특히 치아는 외부로 돌출되어 있고 그 자체로 X-레이나 CT 등 의료 영상을 3D로 구현한 데이터 내에도 공통적으로 존재하므로, 치아 영상에서 치아 특징점들을 추출해서 3D 데이터와 매칭하는 것이 매우 쉽다.This markerless based embodiment is possible because multidimensional feature points are extracted to a fairly precise level in existing teeth. In particular, since teeth protrude outwards and are commonly present in 3D data such as X-rays and CTs, it is very easy to extract tooth feature points from a dental image and match them with 3D data.
한편, 이러한 마커리스 기반의 인식을 대신하여 또는 이와 함께, 마커 기반의 인식도 가능하다. 환자의 구강을 X-레이나 CT로 촬영해도 이러한 마커가 촬영 되어야 특징점의 매칭 및 좌표 변환이 용이하기 때문에, 사용되는 물질은 방사선 불투과성 또는 방사선 컨트라스트 특성을 갖는 물질일 수 있다. 이를테면 도 3a의 도면부호 310과 같이 이러한 포인트는 의료인이 환자의 잇몸이나 입천장 등에 미리 배치시켜 놓은 래이디오패이크 물질(radiopaque material)로 된 포인트들일 수 있다. 예를 들면 가타포처나 불투과성 레진 블록(resin block) 등이다.On the other hand, instead of or in addition to such markerless based recognition, marker based recognition is also possible. Since the image of the patient's mouth is taken by X-ray or CT to facilitate the matching and coordinate transformation of feature points only when the marker is taken, the material used may be a material having radiopaque or radiocontrast characteristics. For example, as illustrated by a reference numeral 310 of FIG. 3A, the points may be points made of a radiopaque material previously placed by a medical person on the patient's gum or palate. For example, it is a gta capture or an impermeable resin block.
또 다른 실시예에서, 도 3b의 도면부호 320과 같이 의료인이 잇몸 또는 치아에 미리 타투(tattoo)를 착색시켜 놓은 포인트들이 이용될 수도 있다. 이와 유사한 다양한 실시예들이 존재할 수 있으며 열거된 실시예들은 한정적인 것이 아니라 예시적인 것이다.In another embodiment, as indicated by reference numeral 320 of FIG. 3B, points in which a medical person has previously tattooed a tattoo on a gum or a tooth may be used. Various similar embodiments may exist and the listed embodiments are illustrative rather than limiting.
이러한 마커들에 있어서, CT 영상과 구강 이미지 스캔 영상은 정합되어 있으므로, 수술 전에 이렇게 마커를 추가 배치하고 스캔을 다시 함으로써 수술 중 실시간 촬영되는 영상과 CT 영상 데이터 사이의 정합이 정교하게 이루어질 수 있다.In such markers, since the CT image and the oral image scan image are matched, the markers can be precisely aligned between the real-time image and the CT image data during surgery by additionally placing the marker and performing the scan again.
치아 영상에 오버랩되는 가이드는 점선, 실선, 화살표, 실제 브라켓 모양 등 다양한 형태일 수 있다. 또한, 가이드는 브라켓의 접착 위치를 알려주는 정보 이외에도 다양한 정보들이 함께 텍스트나 이미지로 표시될 수도 있다. 예를 들어, 환자의 이름, 성별, 나이, 질병 분류, 현재 접착을 준비하고 있는 치아가 몇 번 치아 번호인지, 이전에 의료인이 남겨 둔 특이사항의 코멘트 등이 선택적으로 제시될 수도 있다. 이러한 다양한 시각적 처리는 의료인의 치료를 보조하고 혹시 있을 지 모를 의료적인 실수를 방지하기 위해 여러 가지로 준비될 수 있다. 나아가 시각적 가이드 라인과 함께 또는 선택적으로 음성으로 가이드라인 정보가 제시될 수도 있다.The guide overlapping the dental image may have various shapes such as a dotted line, a solid line, an arrow, and an actual bracket shape. In addition, the guide may be displayed as text or an image together with information indicating the adhesive position of the bracket. For example, the patient's name, sex, age, disease classification, how many teeth are currently being prepared for adhesion, and comments on specifics previously left by the practitioner may optionally be presented. These various visual processes can be prepared in a variety of ways to assist the caregiver and to prevent any possible medical mistakes. Furthermore, the guide information may be presented together with the visual guideline or optionally voice.
도 3d는 일실시예에 따른 치아 교정 가이드 장치에 의해 치근 및 교정용 스크류의 식립 위치를 증강현실로 가이드하는 모습을 도시한다. 일실시예에 따른 치아 교정 가이드 장치는 교정용 스크류를 환자의 치조골에 식립하는 경우에 시술자가 환자의 치근을 손상시키지 않으면서 식립하는 것을 돕는 데 이용될 수 있다.Figure 3d shows a state of guiding the placement position of the root and orthodontic screw with augmented reality by the orthodontic guide device according to one embodiment. The orthodontic guide device according to one embodiment may be used to assist the operator in placing the orthodontic screw in the patient's alveolar bone without damaging the patient's root.
교정용 스크류는 일반적으로 앵커리지 로스(anchorage loss) 없이 치아를 원하는 방향으로 이동시키기 위해 치근들 사이의 치조골에 식립된다. 그러나, 치근들 사이가 좁은 경우가 많아 시술자의 예측에 의존하여 교정용 스크류를 식립하는 경우 환자의 치근이 손상될 우려가 있다. 따라서, 교정용 스크류를 식립할 때 환자의 치근의 위치를 증강현실을 통해 시술자가 확인할 수 있도록 한다면 환자의 치근이 손상될 우려를 대폭 감소시킬 수 있다.Orthodontic screws are generally placed in the alveolar bone between the roots to move the teeth in the desired direction without anchorage loss. However, there are many cases where the roots are narrow, so that the root of the patient may be damaged when the orthodontic screw is placed depending on the operator's prediction. Therefore, if the operator can confirm the position of the patient's root through augmented reality when placing the orthodontic screw can greatly reduce the risk of damage to the patient's root.
일실시예에서, 치아교정 가이드 장치는 환자의 구강을 실시간으로 촬영한 치아 영상 내에 환자의 치근을 나타내는 치근 이미지(340)를 오버랩하여 표시할 수 있다. 예를 들어, 도 3d에 도시된 바와 같이 환자의 구강을 실시간으로 촬영한 치아 영상 내에 환자의 치근 이미지(340) 및/또는 스크류 식립 위치 가이드(350)가 증강현실로 구현될 수 있다. 이와 같이, 시술자가 환자의 치근의 위치를 용이하게 확인할 수 있도록 함으로써, 교정용 스크류 식립 시에 환자의 치근 손상을 방지할 수 있다.In an embodiment, the orthodontic guide device may overlap and display a root image 340 representing the root of the patient in a dental image of the oral cavity of the patient in real time. For example, as shown in FIG. 3D, the root image 340 and / or the screw placement position guide 350 of the patient may be implemented in augmented reality in a dental image of the patient's mouth taken in real time. In this way, the operator can easily check the position of the root of the patient, it is possible to prevent the root damage of the patient at the time of orthodontic screw placement.
일실시예에서, 증강현실 구현을 위한 치근 이미지를 얻기 위하여 CT 영상을 이용할 수 있다. 예를 들어, CT 영상으로부터 치아의 3D 이미지를 추출하고 추출된 치아의 3D 이미지의 치관 부위와 구강을 촬영한 치아 영상 내의 치관 부위를 매칭시키는 방식이 이용될 수 있다. 구체적으로, 환자의 시술 대상 부위인 치아 및 잇몸을 촬영한 치아 영상과 CT 영상으로부터 추출된 치아의 3D 이미지가 매칭되면, 치아 영상 내의 각 치아에 대응되는 치근 이미지를 생성하여, 치아 영상 내에 치근 이미지가 증강현실로 오버랩되어 나타나도록 할 수 있다. 또한, 치아의 3D 이미지에 기초하여 치아 교정 플래닝에 따라 치근 손상을 방지할 수 있는 스크류 식립 위치 가이드(350)를 생성하고 이를 치아 영상 내에 오버랩 할 수 있다.In one embodiment, the CT image may be used to obtain a root image for augmented reality. For example, a method of extracting a 3D image of a tooth from a CT image and matching a crown portion of the extracted 3D image of the tooth with a crown portion in a dental image of the oral cavity may be used. In detail, when a 3D image of a tooth extracted from a tooth and a gum, which is a target region of a patient, is extracted from a CT image, a tooth image corresponding to each tooth in the tooth image is generated, and the root image within the tooth image. May be overlapped with augmented reality. In addition, based on the 3D image of the tooth can generate a screw placement position guide 350 that can prevent root damage in accordance with the orthodontic planning and overlap it in the tooth image.
일실시예에서, 증강현실 구현을 위하여 브라켓(360)을 마커로 활용할 수 있다. 일반적으로 교정용 스크류는 브라켓 및 와이어를 장착한 후에 식립되는 경우가 많으므로, 치아 영상 내의 브라켓(360)을 마커로서 활용하여 매칭 단계에서 치아 인식의 정확도를 높일 수 있다.In one embodiment, the bracket 360 may be used as a marker to implement augmented reality. In general, since the orthodontic screw is often placed after mounting the bracket and the wire, the accuracy of tooth recognition in the matching step can be improved by utilizing the bracket 360 in the dental image as a marker.
도 3e는 일실시예에 따른 오브젝트 좌표계의 식별 과정을 설명하기 위한 도면이다.3E is a diagram for describing a process of identifying an object coordinate system, according to an exemplary embodiment.
동일한 선상에 있지 않은 곳에 세 개 이상의 포인트를 배치하는 경우, 이들이 3D 데이터에 반영되고 실시간 촬영 영상에도 반영 됨으로써, 가이드와 치아 영상 간의 정확한 매칭이 가능하다.If three or more points are not placed on the same line, they are reflected in the 3D data and in the real-time photographing image, so that accurate matching between the guide and the tooth image is possible.
일실시예에 따르면 연산양을 줄이고 계산이 정확하게 되기 위해 정삼각형 형태로 각 꼭지점에 마커를 표시할 수 있다. 그리고 이러한 정삼각형 형태의 마커 부분을 두 곳 이상 두어서 영상 인식의 정확도를 높일 수 있다. 상술한 바와 같이 환자의 구강을 X-레이나 CT로 촬영해도 이러한 마커가 촬영 되어야 특징점의 매칭 및 좌표 변환이 용이하기 때문에, 마커로 사용되는 물질은 방사선 불투과성 또는 방사선 컨트라스트 특성을 갖는 물질일 수 있다. 이를테면 이러한 포인트는 의료인이 환자의 잇몸이나 입천장 등에 미리 배치시켜 놓은 래이디오패이크 물질(radiopaque material)로 된 포인트들일 수 있다.According to one embodiment, markers may be displayed at each vertex in the form of an equilateral triangle in order to reduce the amount of calculation and to be accurate. In addition, the accuracy of image recognition may be improved by placing two or more marker portions of the equilateral triangle shape. As described above, even if the patient's oral cavity is photographed by X-ray or CT, since such markers must be photographed to facilitate matching of coordinates and transformation of coordinates, the material used as a marker may be a material having radiopaque or radiocontrast characteristics. . For example, these points may be points of radiopaque material previously placed by a medical person on the patient's gum or palate.
본 발명에 따른 프로세서가 영상 인식을 할 때 특징점들의 복잡도가 높아질수록 인식 정확도가 높아진다. 마커로는 가타포처, 핀, 타투 등이 이용될 수 있다. 가타포처는 종래 치과 용품으로 사용되는 것인데 실시예들에 따른 마커로 이용될 수 있다. 또한 헤드 부분에 래이디오패이크 물질이 배치된 핀이 활용될 수도 있고, 물리적 형태를 환자 잇몸에 박아 넣는 것이 어려운 경우에는 의료인이 잇몸 또는 치아에 미리 타투(tattoo)를 착색시켜 놓은 포인트들이 이용될 수도 있다. 이와 유사한 다양한 실시예들이 존재할 수 있으며 열거된 실시예들은 한정적인 것이 아니라 예시적인 것이다.When the processor according to the present invention performs image recognition, the higher the complexity of the feature points, the higher the recognition accuracy. As a marker, a gata captureer, a pin, a tattoo, or the like may be used. The gatapocher is used as a conventional dental article and can be used as a marker according to embodiments. In addition, a pin with a radiopaid material disposed on the head portion may be used, and in cases where it is difficult to insert a physical form into the patient's gums, a point where a medical person has previously tattooed a gum or a tooth may be used. It may be. Various similar embodiments may exist and the listed embodiments are illustrative rather than limiting.
이하에서는, 오브젝트 좌표계의 식별 과정을 보다 구체적으로 설명한다.Hereinafter, the identification process of the object coordinate system will be described in more detail.
치아 영상에서 프로세서에 의해 특징점들이 인식되면 이들의 노말 방향이 계산될 수 있다. 증강현실을 위해 치아 영상을 제공하는 카메라의 위치 벡터
Figure PCTKR2016006113-appb-I000001
라고 하고, 벡터
Figure PCTKR2016006113-appb-I000002
로부터 제1 마커의 위치로의 방향 벡터를
Figure PCTKR2016006113-appb-I000003
제2 마커의 위치로의 방향 벡터를
Figure PCTKR2016006113-appb-I000004
제3 마커의 위치로의 방향 벡터를
Figure PCTKR2016006113-appb-I000005
으로 표현하면, 각 마커들의 위치 벡터
Figure PCTKR2016006113-appb-I000006
Figure PCTKR2016006113-appb-I000007
는 아래 수학식과 같이 표현된다. 스칼라 값 r, s 및 t는 카메라 위치와 마커들 사이의 거리이다. 물론 마커가 하나인 예에서 이 벡터들은 마커 내의 복수 개의 포인트들에 대응할 수도 있다.
When the feature points are recognized by the processor in the dental image, their normal directions may be calculated. Position vector of camera providing tooth image for augmented reality
Figure PCTKR2016006113-appb-I000001
Say, vector
Figure PCTKR2016006113-appb-I000002
The direction vector from to the position of the first marker
Figure PCTKR2016006113-appb-I000003
The direction vector to the position of the second marker
Figure PCTKR2016006113-appb-I000004
The direction vector to the position of the third marker
Figure PCTKR2016006113-appb-I000005
In this case, the position vector of each marker
Figure PCTKR2016006113-appb-I000006
And
Figure PCTKR2016006113-appb-I000007
Is expressed as the following equation. The scalar values r, s and t are the distance between the camera position and the markers. Of course, in the example where there is one marker, these vectors may correspond to a plurality of points in the marker.
Figure PCTKR2016006113-appb-I000008
Figure PCTKR2016006113-appb-I000008
그러면, 스칼라 r, s 및 t는 아래 수학식 2의 방정식을 풀어서 구할 수 있다.Then, scalars r, s and t can be found by solving the equation of Equation 2 below.
Figure PCTKR2016006113-appb-I000009
Figure PCTKR2016006113-appb-I000009
이렇게 마커의 위치 벡터들
Figure PCTKR2016006113-appb-I000010
Figure PCTKR2016006113-appb-I000011
가 구해지면, 포인팅 위치의 위치 벡터
Figure PCTKR2016006113-appb-I000012
가 구해질 수 있다. 그러면, 마커들 위치의 중심점으로부터, 노말(normal) 방향으로 h 만큼 떨어져 있다. 벡터
Figure PCTKR2016006113-appb-I000013
는 마커들 위치가 이루는 평면의 노말 벡터이다. 그리고 아래 수학식을 참조하면 마커의 위치 벡터들
Figure PCTKR2016006113-appb-I000014
Figure PCTKR2016006113-appb-I000015
로부터 주방향 벡터
Figure PCTKR2016006113-appb-I000016
를 구할 수 있다.
The position vectors of the markers
Figure PCTKR2016006113-appb-I000010
And
Figure PCTKR2016006113-appb-I000011
If is found, the position vector of the pointing position
Figure PCTKR2016006113-appb-I000012
Can be obtained. Then, from the center point of the positions of the markers, it is h apart in the normal direction. vector
Figure PCTKR2016006113-appb-I000013
Is the normal vector of the plane formed by the marker positions. And referring to the equation below, the position vectors of the markers
Figure PCTKR2016006113-appb-I000014
And
Figure PCTKR2016006113-appb-I000015
Direction vector from
Figure PCTKR2016006113-appb-I000016
Can be obtained.
Figure PCTKR2016006113-appb-I000017
Figure PCTKR2016006113-appb-I000017
상기와 같이 주방향 벡터
Figure PCTKR2016006113-appb-I000018
를 하나 이상에 대해 구하고, 원래 3D 데이터가 구축된 기준 좌표계에서의 벡터와 비교하면 벡터 연산을 이용하여 좌표계 간의 변환 벡터
Figure PCTKR2016006113-appb-I000019
를 구할 수 있다. 이
Figure PCTKR2016006113-appb-I000020
를 이용하여 오브젝트 좌표계를 기준 좌표계로 변환할 수 있고, 반대로
Figure PCTKR2016006113-appb-I000021
의 역인
Figure PCTKR2016006113-appb-I000022
을 이용하여 기준 좌표계 상의 플래닝 가이드를 현실의 오브젝트 좌표계 쪽으로 변환할 수도 있다.
Principal vector as above
Figure PCTKR2016006113-appb-I000018
Is computed for one or more, and is compared to a vector in the reference coordinate system in which the original 3D data was constructed, the vector transforms between coordinate systems using vector operations.
Figure PCTKR2016006113-appb-I000019
Can be obtained. this
Figure PCTKR2016006113-appb-I000020
To convert the object coordinate system to the reference coordinate system, and vice versa.
Figure PCTKR2016006113-appb-I000021
Inverse of
Figure PCTKR2016006113-appb-I000022
Using a transforming the planning guide on the reference coordinate system to the real object coordinate system may be used.
도 4는 일실시예에 따른 광중합기 제어 장치(400)를 도시한다.4 illustrates a light polymerizer control apparatus 400 according to an embodiment.
일실시예에 따른 광중합기 제어 장치(400)는 브라켓이 교정 플래닝에 기초하여 치아 상에 적절하게 위치 하였는지를 판단할 수 있다. 또한, 판단 결과 적절하게 위치 한 경우 하여 자외선을 조사하도록 광원을 제어할 수 있다.The photopolymerizer control apparatus 400 according to an embodiment may determine whether the bracket is properly positioned on the tooth based on the calibration planning. In addition, the light source may be controlled to irradiate ultraviolet rays when it is properly positioned as a result of determination.
이를 위해, 광중합기 제어 장치(400)는 처리부(410)와 제어부(420)를 포함할 수 있다.To this end, the photopolymerizer control apparatus 400 may include a processor 410 and a controller 420.
처리부(410)는 치아에 대한 브라켓의 위치를 기반으로 광중합기의 활성화를 결정한다. 즉, 처리부(410)는 치아에 대한 브라켓의 위치가 미리 지정된 기준에 부합하는 경우, 광중합기의 활성화를 결정할 수 있다. 예를 들어, 교정 플랜에 따라 치아에 설정된 교정 위치가 미리 결정될 수 있는데, 처리부(410)는 브라켓이 교정 위치에 적절하게 위치 하였는지를 판단하는 것으로 미리 지정된 기준에 부합되었는지를 판단할 수 있다. The processor 410 determines the activation of the photopolymerizer based on the position of the bracket with respect to the tooth. That is, the processor 410 may determine the activation of the photopolymerizer when the position of the bracket with respect to the teeth meets a predetermined criterion. For example, the corrected position set in the tooth may be predetermined according to the corrected plan, and the processor 410 may determine whether the bracket meets a predetermined criterion by determining whether the bracket is properly positioned at the corrected position.
구체적으로, 처리부(410)는 치아에 설정된 교정 위치와 브라켓의 위치가 임계값 이상으로 중첩되는 경우, 미리 지정된 기준에 부합하는 것으로 판단할 수 있다. 또한, 처리부(410)는 치아에 설정된 교정 위치와 브라켓의 위치가 임계값 이하의 오차를 갖는 경우에 미리 지정된 기준에 부합하는 것으로 판단할 수도 있다.In detail, the processor 410 may determine that the predetermined position meets a predetermined criterion when the corrected position and the position of the bracket overlap the threshold value. In addition, the processor 410 may determine that the predetermined position meets a predetermined criterion when the correction position and the bracket position set on the tooth have an error of less than or equal to a threshold value.
제어부(420)는 광중합기가 활성화된 경우, 컨트롤 신호에 응답하여 브라켓에 자외선을 조사하도록 광중합기를 제어한다. 일례로, 제어부(420)는 컨트롤 신호에 따라, 조사량 및 조사시점 중에서 적어도 하나를 제어하여 자외선을 조사하도록 광중합기를 제어할 수 있다.When the photopolymerizer is activated, the controller 420 controls the photopolymerizer to radiate ultraviolet rays to the bracket in response to the control signal. For example, the controller 420 may control the photopolymerizer to irradiate ultraviolet rays by controlling at least one of an irradiation amount and an irradiation time point according to the control signal.
컨트롤 신호는 광중합기와 유무선으로 연결되는 스위칭 모듈(430)에 의해 생성될 수 있다.The control signal may be generated by the switching module 430 connected to the photopolymerizer and the wired or wireless.
특히, 풋 스위치(foot switch)에 의해 온 오프 제어되는 스위칭 모듈(430)에 따라 컨트롤 신호의 생성이 제어될 수 있다.In particular, generation of the control signal may be controlled according to the switching module 430 controlled on and off by a foot switch.
다른 예로, 컨트롤 신호는 미리 지정된 음성신호에 응답하는 스위칭 모듈(430)을 통해서 생성될 수도 있다.As another example, the control signal may be generated through the switching module 430 in response to a predetermined voice signal.
도 5는 일실시예에 따른 치아 교정 가이드 장치의 동작 방법을 도시하는 흐름도이다.5 is a flowchart illustrating a method of operating a dental orthodontic guide device according to an embodiment.
일실시예에 따른 치아 교정 가이드 장치의 동작 방법 또는 치아 교정 가이드 방법은 교정 플래닝에 따른 브라켓의 접착 위치를 포함하는 가이드 정보와 치아 영상간 매칭 정보를 생성한다(단계 501).The operation method of the orthodontic guide device or the orthodontic guide method according to an embodiment generates the matching information between the tooth information and the guide information including the adhesive position of the bracket according to the orthodontic planning (step 501).
예를 들어, 치아 교정 가이드 방법은 입력 영상에서 치아에 연관되는 복수 개의 포인트들 식별하고, 상기 식별된 포인트들의 위치들을 상기 매칭 정보로 생성할 수 있다. 뿐만 아니라, 잇몸 및 치아 중 적어도 하나에 포함되는 특징점을 포인트들로 활용할 수 있다. 이때, 복수 개의 포인트들 중 적어도 하나는 잇몸 또는 치아에 배치되는 래이디오패이크 물질(radiopaque material)에 대응할 수도 있고, 잇몸 또는 치아에 미리 착색되는 타투 포인트 및 부착되는 칼라 테이프 중 적어도 하나에 대응할 수 있다.For example, the orthodontic guide method may identify a plurality of points associated with a tooth in an input image, and generate positions of the identified points as the matching information. In addition, the feature points included in at least one of the gum and teeth may be used as points. In this case, at least one of the plurality of points may correspond to a radiopaque material disposed on the gum or tooth, and may correspond to at least one of a tattoo point pre-colored on the gum or tooth and a color tape attached thereto. have.
또한, 치아 교정 가이드 방법은 생성된 매칭 정보에 기초하여, 가이드 정보에 상기 치아 영상에 오버랩할 수 있다(단계 502). 이후, 치아 교정 가이드 방법은 브라켓과 가이드 정보 간의 매칭 과정을 출력한다(단계 503). 예를 들어, 치아 교정 가이드 방법은 브라켓과 가이드된 접착 위치 간의 중첩률을 %로 표시하고, 시술자는 표시되는 중첩률을 확인하여 브라켓의 위치 설정에 활용함으로써, 접착에 따른 정확도를 향상시킬 수 있다.In addition, the orthodontic guide method may overlap the tooth image with the guide information based on the generated matching information (step 502). Then, the orthodontic guide method outputs a matching process between the bracket and the guide information (step 503). For example, the orthodontic guide method displays the overlap rate between the bracket and the guided bonding position in%, and the operator can check the displayed overlap rate and use it for positioning of the bracket, thereby improving the accuracy according to the adhesion. .
도 6은 일실시예에 따른 광중합기 제어 장치의 동작 방법을 도시하는 흐름도이다.6 is a flowchart illustrating a method of operating a light polymerizer control apparatus according to an embodiment.
일실시예에 따른 광중합기 제어 장치의 동작 방법 또는 광중합기 제어 방법은 치아에 대한 브라켓의 위치를 확인한다(단계 601). 치아에 설정된 교정 위치는 교정 플랜에 따라 미리 결정될 수 있고, 일실시예에 따른 광중합기 제어 방법은 교정 플랜에 따라 결정된 교정 위치와 트래킹되는 브라켓의 상대적인 위치를 실시간으로 모니터링할 수 있다.The method of operating the photopolymerizer control apparatus or the photopolymerizer control method according to an embodiment checks the position of the bracket with respect to the tooth (step 601). The calibration position set in the tooth may be previously determined according to the calibration plan, and the photopolymerizer control method according to an embodiment may monitor in real time the calibration position determined in accordance with the calibration plan and the relative position of the tracked bracket.
다음으로, 광중합기 제어 방법은 단계 601에서 확인된 치아에 대한 브라켓의 위치가 미리 지정된 기준에 부합되는지 여부를 판단한다(단계 602).Next, the photopolymerizer control method determines whether the position of the bracket with respect to the tooth identified in step 601 meets a predetermined criterion (step 602).
일례로, 교정 플랜에 따라 치아에 설정된 교정 위치와 브라켓의 위치가 임계값 이상으로 중첩되는지 여부를 판단하거나, 설정된 교정 위치와 브라켓의 위치가 임계값 이하의 오차가 있는지 여부를 판단하여 브라켓의 위치가 미리 지정된 기준에 부합되는지 여부를 판단할 수 있다.For example, the position of the bracket may be determined by determining whether or not the corrected position of the tooth and the position of the bracket overlap the threshold value or more according to the corrective plan, or whether the set corrected position and the position of the bracket have an error below the threshold value. It can be determined whether the s meet the predetermined criteria.
광중합기 제어 방법은 단계 602의 판단 결과, 확인된 치아에 대한 브라켓의 위치가 미리 지정된 기준에 부합하는 경우 광중합기가 활성화되도록 제어할 수 있다(단계 603).The method of controlling the photopolymerizer may control the photopolymerizer to be activated when the position of the bracket with respect to the identified tooth meets a predetermined criterion as a result of the determination of step 602 (step 603).
즉, 광중합기 제어 방법은 설정된 교정 위치와 브라켓의 위치가 임계값 이상으로 중첩되는 경우 또는 설정된 교정 위치와 브라켓의 위치가 임계값 이하의 오차가 있는 경우에 광중합기가 활성화되도록 제어할 수 있다.That is, the photopolymerizer control method may control the photopolymerizer to be activated when the set calibration position and the bracket position overlap more than the threshold value or when the set calibration position and the bracket position have an error less than or equal to the threshold value.
한편, 광중합기 제어 방법은 단계 602의 판단 결과, 확인된 치아에 대한 브라켓의 위치가 미리 지정된 기준에 부합하지 않는 경우에는 단계 601로 분기하여 치아에 대한 브라켓의 위치를 확인하는 과정을 수행할 수 있다. On the other hand, the photopolymerizer control method, if the determination result of the step 602, the bracket position with respect to the identified tooth does not meet a predetermined criterion to branch to step 601 to check the position of the bracket relative to the tooth can be performed. have.
즉, 광중합기 제어 방법은 설정된 교정 위치와 브라켓의 위치가 임계값 이하로 중첩되거나, 설정된 교정 위치와 브라켓의 위치가 임계값 이상의 오차가 있는 경우에 단계 601로 분기하여 치아에 대한 브라켓의 위치를 확인하는 과정을 수행할 수 있다.That is, the photopolymerizer control method branches to step 601 when the set calibration position and the bracket position overlap below the threshold value, or when the set calibration position and the bracket position have an error greater than or equal to the threshold value. Confirmation process can be performed.
광중합기가 활성화되는 경우에만, 광중합기는 자외선을 조사할 수 있다.Only when the photopolymerizer is activated, the photopolymerizer can irradiate ultraviolet rays.
광중합기 제어 방법은 광중합기가 활성화되면, 스위칭 모듈로부터 컨트롤 신호 수신하고(단계 604), 수신된 컨트롤 신호에 따라 브라켓에 자외선을 조사하도록 광중합기를 제어한다(단계 605).The photopolymer control method receives a control signal from the switching module when the photopolymerizer is activated (step 604) and controls the photopolymerizer to irradiate the bracket with ultraviolet rays according to the received control signal (step 605).
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments may be, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable arrays (FPAs), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the accompanying drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

Claims (25)

  1. 컴퓨팅 단말에 의해 구현되는 치아 교정 가이드 장치에 있어서,In the orthodontic guide device implemented by a computing terminal,
    치아 교정 플래닝에 따른 브라켓의 접착 위치 및 방향을 포함하는 가이드와 치아 영상간 매칭 정보를 생성하는 프로세서; 및A processor for generating matching information between a guide and a tooth image including a bonding position and a direction of the bracket according to the orthodontic planning; And
    상기 생성된 매칭 정보에 기초하여, 상기 가이드를 상기 치아 영상에 오버랩하는 제어부A controller configured to overlap the guide with the tooth image based on the generated matching information
    를 포함하는 치아 교정 가이드 장치.Orthodontic guide device comprising a.
  2. 제1항에 있어서,The method of claim 1,
    상기 브라켓의 접착 위치 및 방향은 십자를 포함하는 증강현실로 구현된 영상으로 나타나는 것을 특징으로 하는 치아 교정 가이드 장치.Bonding position and direction of the bracket is orthodontic guide device characterized in that the image is represented by augmented reality including a cross.
  3. 제1항에 있어서,The method of claim 1,
    상기 브라켓의 접착 위치 및 방향은 상기 브라켓의 3D 이미지가 상기 브라켓이 접착될 위치에 증강현실로 구현된 영상으로 나타나는 것을 특징으로 하는 치아 교정 가이드 장치.Bonding position and direction of the bracket is a 3D image of the orthodontic guide device, characterized in that the appearance of the image implemented in augmented reality in the position where the bracket is to be bonded.
  4. 제1항에 있어서,The method of claim 1,
    상기 가이드가 오버랩된 치아 영상을 제공하는 디스플레이를 더 포함하고,The guide further comprises a display for providing an overlapping tooth image,
    상기 디스플레이는 카메라를 구비한 안경형 웨어러블 기기를 포함하는 치아 교정 가이드 장치.The display includes a orthodontic guide device comprising a spectacle wearable device having a camera.
  5. 제1항에 있어서, The method of claim 1,
    상기 가이드가 오버랩된 치아 영상을 제공하는 디스플레이를 더 포함하고,The guide further comprises a display for providing an overlapping tooth image,
    상기 디스플레이는 카메라를 구비한 안경형 웨어러블 기기를 포함하는 치아 교정 가이드 장치.The display includes a orthodontic guide device comprising a spectacle wearable device having a camera.
    상기 정보를 제공하는 디스플레이는 카메라 및 상기 카메라와 연동된 외부형 디스플레이를 포함하는 치아 교정 가이드 장치.The display providing the information includes a camera and an external display linked to the camera.
  6. 제1항에 있어서,The method of claim 1,
    상기 프로세서는 상기 치아 영상에서 치아에 연관되는 복수 개의 포인트들을 식별하고, 상기 식별된 포인트들의 위치들을 상기 매칭 정보로 생성하는 치아 교정 가이드 장치.And the processor identifies a plurality of points associated with a tooth in the tooth image, and generates positions of the identified points as the matching information.
  7. 제6항에 있어서,The method of claim 6,
    상기 복수 개의 포인트들은 잇몸 및 치아 중 적어도 하나에 포함되는 특징점인 치아 교정 가이드 장치.And the plurality of points are feature points included in at least one of a gum and a tooth.
  8. 제6항에 있어서,The method of claim 6,
    상기 복수 개의 포인트들 중 적어도 하나는 잇몸 또는 치아에 배치되는 래이디오패이크 물질(radiopaque material)에 대응하는 치아 교정 가이드 장치.At least one of the plurality of points corresponds to a radiopaque material disposed on the gum or tooth.
  9. 제6항에 있어서,The method of claim 6,
    상기 복수 개의 포인트들 중 적어도 하나는 잇몸 또는 치아에 배치되는 양형 돌출부 블록 또는 음형의 함몰부에 대응하는 치아 교정 가이드 장치.At least one of the plurality of points corresponds to a positive protrusion block or a negative depression disposed on the gum or tooth.
  10. 제6항에 있어서,The method of claim 6,
    상기 복수 개의 포인트들 중 적어도 하나는 잇몸 또는 치아에 미리 착색되는 타투 포인트 및 부착되는 칼라 테이프 중 적어도 하나에 대응하는 치아 교정 가이드 장치.And at least one of the plurality of points corresponds to at least one of a tattoo point precolored on the gum or tooth and a color tape attached thereto.
  11. 컴퓨팅 단말에 의해 구현되는 치아 교정 가이드 장치에 있어서,In the orthodontic guide device implemented by a computing terminal,
    치아 교정 플래닝에 따른 브라켓의 접착 위치 및 치아 영상 내의 브라켓의 위치 간의 오차를 계산하는 프로세서; 및A processor for calculating an error between an adhesive position of the bracket and a position of the bracket in the dental image according to the orthodontic planning; And
    상기 오차가 임계값 이하인 경우 시술자에게 알림을 제공하기 위한 컨트롤 신호를 발생시키는 신호 생성부Signal generation unit for generating a control signal for providing a notification to the operator when the error is less than the threshold value
    를 포함하는 치아 교정 가이드 장치.Orthodontic guide device comprising a.
  12. 제11항에 있어서,The method of claim 11,
    상기 알림은 증강현실로 구현된 시각적 표식이 디스플레이를 통해 제공되는 것을 포함하는 치아 교정 가이드 장치.The notification includes orthodontic guide device comprising a visual marker implemented in augmented reality provided via a display.
  13. 제11항에 있어서,The method of claim 11,
    상기 알림은 상기 시술자에게 제공되는 효과음을 포함하는 치아 교정 가이드 장치.The notification device for orthodontic treatment comprising the sound effect provided to the operator.
  14. 컴퓨팅 단말에 의해 구현되는 광중합기 제어 장치에 있어서,In the photopolymer control device implemented by a computing terminal,
    치아에 대한 브라켓의 위치를 기반으로 광중합기의 활성화를 결정하는 처리부; 및A processor configured to determine the activation of the photopolymerizer based on the position of the bracket relative to the tooth; And
    상기 광중합기가 활성화된 경우, 컨트롤 신호에 응답하여 상기 브라켓에 광을 조사하도록 상기 광중합기를 제어하는 제어부A controller configured to control the photopolymerizer to irradiate the bracket with light in response to a control signal when the photopolymerizer is activated
    를 포함하는 광중합기 제어 장치.Photopolymer control device comprising a.
  15. 제14항에 있어서,The method of claim 14,
    상기 처리부는,The processing unit,
    상기 치아에 대한 브라켓의 위치가 미리 지정된 기준에 부합하는 경우, 상기 광중합기의 활성화를 결정하는 광중합기 제어 장치.And determine the activation of the photopolymerizer when the position of the bracket relative to the tooth meets a predetermined criterion.
  16. 제14항에 있어서,The method of claim 14,
    상기 처리부는,The processing unit,
    치아 교정 플래닝에 따라 상기 치아에 설정된 치아 교정 위치와 상기 브라켓의 위치가 임계값 이상으로 중첩되는 경우, 상기 미리 지정된 기준에 부합하는 것으로 판단하는 광중합기 제어 장치.And an orthodontic appliance configured to meet the predetermined criterion when a tooth orthodontic position set on the tooth and a position of the bracket overlap a threshold value or more according to orthodontic planning.
  17. 제14항에 있어서,The method of claim 14,
    상기 컨트롤 신호는 상기 광중합기와 유무선으로 연결되는 스위칭 모듈에 의해 생성되는 광중합기 제어 장치.And the control signal is generated by a switching module connected to the photopolymerizer by wire or wireless.
  18. 제17항에 있어서,The method of claim 17,
    상기 스위칭 모듈은,The switching module,
    풋 스위치(foot switch)에 의해 온 오프 제어되고, 상기 온 오프 제어에 따라 상기 컨트롤 신호의 생성을 제어하는 광중합기 제어 장치.An on-polymerizer control device controlled on and off by a foot switch and controlling generation of the control signal according to the on and off control.
  19. 제17항에 있어서,The method of claim 17,
    상기 스위칭 모듈은,The switching module,
    미리 지정된 음성신호에 응답하여 상기 컨트롤 신호를 생성하는 광중합기 제어 장치.And a photopolymer controller for generating the control signal in response to a predetermined voice signal.
  20. 제14항에 있어서,The method of claim 14,
    상기 제어부는,The control unit,
    상기 컨트롤 신호에 따라, 조사량 및 조사시점 중에서 적어도 하나를 제어하여 상기 광을 조사하도록 상기 광중합기를 제어하는 광중합기 제어 장치.And a photopolymerizer to control the photopolymerizer to irradiate the light by controlling at least one of an irradiation dose and an irradiation time point according to the control signal.
  21. 컴퓨팅 단말에 의해 구현되는 치아 교정 가이드 장치의 동작 방법에 있어서,In the operation method of the orthodontic guide device implemented by a computing terminal,
    치아 교정 플래닝에 따른 브라켓의 접착 위치를 포함하는 가이드와 치아 영상간 매칭 정보를 생성하는 단계; 및Generating matching information between the guide and the tooth image including the bonding position of the bracket according to the orthodontic planning; And
    상기 생성된 매칭 정보에 기초하여, 상기 가이드를 상기 치아 영상에 오버랩하는 단계Overlapping the guide with the dental image based on the generated matching information
    를 포함하는 치아 교정 가이드 장치의 동작 방법.Method of operation of the orthodontic guide device comprising a.
  22. 컴퓨팅 단말에 의해 구현되는 광중합기 제어 방법에 있어서,In the optical polymerizer control method implemented by the computing terminal,
    처리부에서, 치아에 대한 브라켓의 위치가 미리 지정된 기준에 부합하는 경우, 광중합기의 활성화를 결정하는 단계; 및In the processing unit, determining the activation of the photopolymerizer when the position of the bracket with respect to the teeth meets a predetermined criterion; And
    제어부에서, 상기 광중합기가 활성화된 경우, 컨트롤 신호에 응답하여 상기 브라켓에 광을 조사하도록 상기 광중합기를 제어하는 단계Controlling, by the controller, the photopolymerizer to irradiate the bracket with light in response to a control signal when the photopolymerizer is activated;
    를 포함하는 광중합기 제어 방법.Photopolymer control method comprising a.
  23. 컴퓨팅 단말에 의해 구현되는 치아 교정 가이드 장치에 있어서,In the orthodontic guide device implemented by a computing terminal,
    치근을 포함하는 치아의 3D 이미지와 치아 영상간 매칭 정보를 생성하는 프로세서; 및A processor for generating matching information between the 3D image and the tooth image of the tooth including the root; And
    상기 생성된 매칭 정보에 기초하여, 상기 치근을 나타내는 이미지를 상기 치아 영상에 오버랩하는 제어부A controller configured to overlap the image representing the tooth root with the tooth image based on the generated matching information
    를 포함하는 치아 교정 가이드 장치.Orthodontic guide device comprising a.
  24. 제23항에 있어서,The method of claim 23,
    상기 프로세서는 CT 영상으로부터 상기 치아의 3D 이미지를 추출하고, 상기 치아의 3D 이미지와 대응되는 상기 치아 영상 내의 치아를 식별하여 상기 매칭 정보를 생성하는, 치아 교정 가이드 장치.The processor extracts a 3D image of the tooth from a CT image, and identifies the teeth in the tooth image corresponding to the 3D image of the tooth to generate the matching information.
  25. 제23항에 있어서,The method of claim 23,
    상기 프로세서는 치아 교정 플래닝에 따른 스크류 식립 위치 가이드를 생성하고,The processor generates a screw placement position guide according to orthodontic planning,
    상기 제어부는 상기 스크류 식립 위치 가이드를 상기 치아 영상에 오버랩하는, 치아 교정 가이드 장치.The control unit overlaps the screw placement position guide to the tooth image, the orthodontic guide device.
PCT/KR2016/006113 2015-06-09 2016-06-09 Orthodontic guide device method WO2016200167A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020177035025A KR102067089B1 (en) 2015-06-09 2016-06-09 Orthodontic guide device method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2015-0081373 2015-06-09
KR20150081373 2015-06-09
KR10-2015-0162406 2015-11-19
KR1020150162406A KR20160144891A (en) 2015-06-09 2015-11-19 Apparatus and method for guiding for orthodontic treatment

Publications (1)

Publication Number Publication Date
WO2016200167A1 true WO2016200167A1 (en) 2016-12-15

Family

ID=57504209

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/006113 WO2016200167A1 (en) 2015-06-09 2016-06-09 Orthodontic guide device method

Country Status (1)

Country Link
WO (1) WO2016200167A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018112427A1 (en) * 2016-12-16 2018-06-21 Align Technology, Inc. Augmented reality planning and viewing of dental treatment outcomes
WO2018164351A1 (en) * 2017-03-10 2018-09-13 박태현 Apparatus and method for performing advertisement on basis of temporary tattoo
WO2019031658A1 (en) * 2017-08-11 2019-02-14 서울대학교병원 Orthodontic guide system and orthodontic guide method using same
US10695150B2 (en) 2016-12-16 2020-06-30 Align Technology, Inc. Augmented reality enhancements for intraoral scanning
US20220233287A1 (en) * 2016-06-20 2022-07-28 Carestream Dental Llc Dental restoration assessment using virtual model

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7147464B2 (en) * 1997-09-30 2006-12-12 Cadent Ltd Placing an orthodontic element on a tooth surface
US7245753B2 (en) * 2003-06-26 2007-07-17 Carestream Health, Inc. Method for determining dental alignment using radiographs
US7993133B2 (en) * 2006-10-20 2011-08-09 3M Innovative Properties Company Digital orthodontic treatment planning
US8733928B1 (en) * 2005-10-07 2014-05-27 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
KR20140111902A (en) * 2013-03-12 2014-09-22 주식회사 이우소프트 Method for dental treatment plan processing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7147464B2 (en) * 1997-09-30 2006-12-12 Cadent Ltd Placing an orthodontic element on a tooth surface
US7245753B2 (en) * 2003-06-26 2007-07-17 Carestream Health, Inc. Method for determining dental alignment using radiographs
US8733928B1 (en) * 2005-10-07 2014-05-27 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US7993133B2 (en) * 2006-10-20 2011-08-09 3M Innovative Properties Company Digital orthodontic treatment planning
KR20140111902A (en) * 2013-03-12 2014-09-22 주식회사 이우소프트 Method for dental treatment plan processing

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220233287A1 (en) * 2016-06-20 2022-07-28 Carestream Dental Llc Dental restoration assessment using virtual model
US10733805B2 (en) 2016-12-16 2020-08-04 Align Technology, Inc. Augmented reality planning and viewing of dental treatment outcomes
US11317999B2 (en) 2016-12-16 2022-05-03 Align Technology, Inc. Augmented reality enhancements for dental practitioners
WO2018112427A1 (en) * 2016-12-16 2018-06-21 Align Technology, Inc. Augmented reality planning and viewing of dental treatment outcomes
US11051914B2 (en) 2016-12-16 2021-07-06 Align Technology, Inc. Augmented reality enhancements for dental practitioners
US10997792B2 (en) 2016-12-16 2021-05-04 Align Technology, Inc. Kiosk for viewing of dental treatment outcomes
US10888399B2 (en) 2016-12-16 2021-01-12 Align Technology, Inc. Augmented reality enhancements for dental practitioners
US10467815B2 (en) 2016-12-16 2019-11-05 Align Technology, Inc. Augmented reality planning and viewing of dental treatment outcomes
US10695150B2 (en) 2016-12-16 2020-06-30 Align Technology, Inc. Augmented reality enhancements for intraoral scanning
KR101947258B1 (en) * 2017-03-10 2019-02-12 박태현 Apparatus and method for advertising based on temporary tattoo
KR20180103540A (en) * 2017-03-10 2018-09-19 박태현 Apparatus and method for advertising based on temporary tattoo
WO2018164351A1 (en) * 2017-03-10 2018-09-13 박태현 Apparatus and method for performing advertisement on basis of temporary tattoo
KR102024988B1 (en) * 2017-08-11 2019-09-24 서울대학교병원 Guide system for orthodontics and method for providing orthodontic guide
KR20190017377A (en) * 2017-08-11 2019-02-20 서울대학교병원 Guide system for orthodontics and method for providing orthodontic guide
WO2019031658A1 (en) * 2017-08-11 2019-02-14 서울대학교병원 Orthodontic guide system and orthodontic guide method using same

Similar Documents

Publication Publication Date Title
KR102067089B1 (en) Orthodontic guide device method
WO2016200167A1 (en) Orthodontic guide device method
WO2016200177A1 (en) Drilling guide device and method
US20200214803A1 (en) System and method for digital tooth imaging
JP6458042B2 (en) Navigation system for dental and oral surgery and method of operation thereof
WO2018143497A1 (en) Implant surgery guiding method
WO2019133583A1 (en) Augmented reality enhancements for dental practitioners
WO2021145544A1 (en) Method and apparatus for generating orthodontic teeth arrangement shape
US10495881B2 (en) Eyeglasses having at least one partially transparent screen, and method for operation of eyeglasses
WO2019112301A2 (en) Apparatus and method for designating implant implantation region
WO2021157966A1 (en) Method for providing information about orthodontics using deep learning artificial intelligence algorithm, and device using same
US9936166B2 (en) Method for planning a dental treatment
WO2019132427A1 (en) Laser target projection apparatus and control method thereof, and laser surgery induction system comprising laser target projection apparatus
WO2021141416A1 (en) Apparatus and method for generating three-dimensional model through data matching
WO2020184876A1 (en) Method for establishing implant surgery plan by using artificial intelligence and medical image processing device therefor
WO2014073818A1 (en) Implant image creating method and implant image creating system
EP2775956A2 (en) Method for producing a dental element or aid for adjusting the teeth, face-bow and articulator
US20090274267A1 (en) System and method for automatic jaw measurement for panoramic radiology
WO2021006471A1 (en) Implant surgery planning method using automatic placement of implant structure, user interface providing method therefor, and teeth image processing device therefor
WO2016175545A1 (en) Method and system for precise dental procedure
WO2021137573A2 (en) Method and apparatus for setting margin line
WO2019031658A1 (en) Orthodontic guide system and orthodontic guide method using same
WO2022171911A1 (en) Occipital optoelectronic chin rest
KR102377629B1 (en) Artificial Intelligence Deep learning-based orthodontic diagnostic device for analyzing patient image and generating orthodontic diagnostic report and operation method thereof
JP2022501153A (en) A method for incorporating a person's photographic facial image and / or film into a dental and / or aesthetic dental treatment plan and / or preparation of a restoration for the person.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16807807

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20177035025

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16807807

Country of ref document: EP

Kind code of ref document: A1