WO2012117122A1 - Sistema y método para generar mutación de perfiles utilizando datos de seguimiento cefalométrico - Google Patents

Sistema y método para generar mutación de perfiles utilizando datos de seguimiento cefalométrico Download PDF

Info

Publication number
WO2012117122A1
WO2012117122A1 PCT/ES2011/070133 ES2011070133W WO2012117122A1 WO 2012117122 A1 WO2012117122 A1 WO 2012117122A1 ES 2011070133 W ES2011070133 W ES 2011070133W WO 2012117122 A1 WO2012117122 A1 WO 2012117122A1
Authority
WO
WIPO (PCT)
Prior art keywords
line segments
cephalometric
image
reference mark
mark points
Prior art date
Application number
PCT/ES2011/070133
Other languages
English (en)
French (fr)
Inventor
Emilio David CORTÉS PROVENCIO
Original Assignee
Dolphin Imaging Systems, Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolphin Imaging Systems, Llc filed Critical Dolphin Imaging Systems, Llc
Priority to EP11721071.6A priority Critical patent/EP2682068B1/en
Priority to ES11721071.6T priority patent/ES2651317T3/es
Priority to PCT/ES2011/070133 priority patent/WO2012117122A1/es
Priority to US13/111,751 priority patent/US8711178B2/en
Publication of WO2012117122A1 publication Critical patent/WO2012117122A1/es

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00792Plastic surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/36Devices acting between upper and lower teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/08Biomedical applications
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Definitions

  • the present invention relates, in general, to dentofacial imaging and, more particularly, to systems and methods for surgical planning using dentofacial imaging.
  • Dentofacial surgery also referred to as oral surgery and maxillofacial surgery, is often used to correct a broad spectrum of diseases, injuries and defects in the head, neck, face, jaws and hard and soft tissues of the oral and maxillofacial region. of humans or other non-human patients.
  • dentofacial surgery doctors increasingly use computer-assisted dentofacial imaging tools to model patient dentofacial characteristics, diagnose diseases, injuries and defects, plan surgery procedures dentofacial and other treatments, and educate patients regarding diagnosis and treatments.
  • a doctor may wish to present the patient with a "before" image of the patient prior to treatment, an "after” image that represents to the patient after treatment, and an animation or "mutation" between the images before and after.
  • the mutation is carried out by manually performing essential characteristics on a first image, such as the contour of the nose or the location of an eye, and manually marking where these same points were in the second image, creating multiple pairs of segments of line.
  • the software would then create an animation, slowly distorting the first image to have the characteristics of the second image at the same time as a cross-fade between the two images is performed.
  • Such manual realization of the features may take a long time and, therefore, is not desirable.
  • a doctor can modify virtually, with the help of a tool assisted by computer, several bones or bone segments of the patient through a user interface of a computer.
  • Such computer-assisted planning and simulation can allow a physician to simulate the effect of various surgical adjustments on a patient, including effects on the aesthetic appearance of a patient.
  • traditional computer-assisted surgical planning and simulation tools have significant drawbacks. For example, digital images of a patient's facial tissues generated by imaging devices may include noise and other undesirable artifacts. Therefore, many traditional planning and simulation tools allow a doctor to "clean" a digital image to eliminate image noise. However, such noise cleaning is complicated due to the non-linear and three-dimensional shapes of the tissues comprising a human head.
  • traditional planning and simulation tools typically allow a physician to make two-dimensional surgical adjustments of the bone and generate a simulated two-dimensional soft tissue response based on such adjustments, which does not allow the physician to see a three-dimensional model of the response.
  • the drawbacks and problems associated with traditional methods for surgical planning using dentofacial imaging can be substantially reduced or eliminated.
  • a method for generating an animated mutation between a first image and a second image.
  • the method may include: (i) reading a first set of cephalometric reference mark points associated with the first image; (ii) read a second set of cephalometric reference mark points associated with the second image; (iii) define a first set of line segments by defining a line segment between each of the first set of cephalometric reference marks; (iv) define a second set of line marking line segments by defining a line segment between each of the second set of cephalometric reference marks, such that each line segment of the second set of line segments corresponds to a segment corresponding line of the first set of line segments; and (v) generate a animation progressively disfiguring the first image with respect to the second image based on at least the first set of line segments and the second set of line segments.
  • an article of manufacture may include a non-transient computer-readable medium; and computer executable instructions carried on the computer readable medium.
  • the instructions may be executed by one or more processors and may be configured to cause one or more processors to: (i) read a first set of cephalometric reference mark points associated with the first image; (ii) read a second set of cephalometric reference mark points associated with the second image; (iii) define a first set of line segments defining a line segment between each of the first set of cephalometric reference marks; (iv) define a second set of line segments defining a line segment between each of the second set of cephalometric reference marks, such that each line segment of the second set of line segments corresponds to a corresponding line segment of the first set of line segments; and (v) generate an animation by progressively defacing the first image with respect to the second image based at least on the first set of line segments and the second set of line segments.
  • a calculation system may comprise a processor and a memory coupled by communication with the processor.
  • the memory may have an instruction program configured therein, when executed by the processor, to: (i) read a first set of cephalometric reference mark points associated with the first image; (ii) read a second set of cephalometric reference mark points associated with the second image; (iii) define a first set of line segments by defining a line segment between each of the first set of cephalometric reference marks; (iv) define a second set of line segments by defining a line segment between each of the second set of cephalometric reference marks, such that each line segment of the second set of line segments corresponds to a corresponding line segment of the first set of line segments; and (v) generate an animation by progressively disfiguring the first image with respect to the second image based on at least the first set of segments of line and in the second set of line segments.
  • Figure 1 illustrates an example of cephalometric monitoring of soft tissue and bone characteristics of a profile view of an individual, in accordance with embodiments of the present description.
  • Figure 2 illustrates an example of a user interface screen 200 of a computer-assisted surgical planning tool, in accordance with embodiments of the present description.
  • Figures 3A and 3B illustrate another example of a user interface screen of a computer-assisted surgical planning tool, in accordance with embodiments of the present description.
  • Figure 4 illustrates a block diagram of an example calculation system, in accordance with embodiments of the present description.
  • Figure 1 illustrates an example of cephalometric tracking 100 of soft tissue and bone characteristics of a profile view of an individual, in accordance with embodiments of the present description.
  • a cephalometric follow-up can be traced on the basis of an x-ray or other image of an individual's head tissue or otherwise extracted from such an x-ray or other image, and can be used to study relationships between tissue reference marks Bone and soft tissue, to diagnose facial growth abnormalities before treatment, at the center of the treatment to assess progress, and at the end of the treatment to make sure that the goals of the treatment have been met.
  • tissue reference marks may include, without limitation:
  • soft tissue glabella 102 soft tissue surface covering the most anterior point of the frontal bone (for example, between the eyebrows of an individual), • soft tissue nasion 104 - the soft tissue of the most concave point of the soft tissue profile on the bridge of the nose;
  • nose bridge 106 midpoint of the soft tissue nasion 104 with respect to pronasal point 108 (eg, the first contour found along the length of the nose profile);
  • pronasal 108 - most anterior point of the nose curve for example, tip of the nose
  • soft tissue point B 122 most concave point between the lower lip 120 and the soft tissue pogonion 124;
  • soft tissue pogonion 124 most anterior point on the anterior curve of the soft tissue chin
  • Soft tissue gnathion 126 midpoint between soft tissue pogonion 124 and soft tissue chin 128;
  • throat point 130 intersection of tangent lines to the neck and throat.
  • cephalometric tracking 100 can be created by or with the assistance of a computer-assisted surgical planning tool that runs on a computer.
  • the computer-assisted surgical planning tool can read an x-ray or other image or on the basis of the content of such an image can generate one or more portions of a cephalometric follow-up and / or identify one or more cephalometric reference marks.
  • the computer-assisted surgical planning tool can represent an x-ray or other image and a doctor, through a user interface of the surgical planning tool, can use the image as a guide to design the cephalometric monitoring of bone tissue or soft tissue characteristics and / or identifying one or more cephalometric reference marks.
  • the computer-assisted surgical planning tool can store (for example, in a computer-readable medium) the cephalometric tracking, the cephalometric reference marks and / or their associated coordinates.
  • Figure 2 illustrates an example of a user interface screen 200 of a computer-assisted surgical planning tool, in accordance with embodiments of the present description.
  • the user interface screen 200 may include an image of the pre-surgical profile 202 of an individual with the pre-surgical cephalometric tracking 100 of Figure 1 superimposed on the image 22, and a post image -purgical planned 204 of the same individual with a planned post-surgical cephalometric monitoring 206 superimposed on the image 204.
  • the image of the pre-surgical profile 202 can be generated by taking a picture of the profile of the individual in question.
  • the computer-assisted surgical planning tool can be configured to read the image (for example, from a computer-readable medium) and, in response to a user input, to superimpose the cephalometric tracking 100 on the image 202.
  • the surgical planning tool may be configured to detect and align corresponding characteristics of image 202 and cephalometric tracking 100 and to align image 202.
  • the surgical planning tool may be configured to allow a user through a user interface to adjust image 202 and / or cephalometric tracking 100 in order to align features.
  • cephalometric reference marks for example the reference marks 102-103
  • profile image 202 for example as metadata in a digital file from profile image 202
  • the planned post-surgical cephalometric follow-up 206 can be created from the pre-surgical cephalometric follow-up 100 by a physician through interaction with the computer-assisted surgical planning tool to modify (for example, with a mouse or other similar device of user input) cephalometric monitoring 100 and / or cephalometric reference mark locations to obtain desired post-surgical characteristics.
  • the computer-assisted surgical planning tool can disfigure cephalometric tracking 100 in response to user input, according to well known methods.
  • the computer-assisted surgical planning tool can memorize (for example, in a computer-readable medium) the planned post-surgical cephalometric monitoring 206 and its associated (modified) cephalometric reference marks.
  • the planned post-surgical image 204 may be created from a pre-surgical image 202 based on differences between post-surgical cephalometric monitoring 206 and pre-surgical cephalometric monitoring 100. For example, based on the differences in locations of cephalometric tracking elements 100 and 206 and / or differences in cephalometric reference mark locations, the computer-assisted surgical planning tool can deface image 202 according to well-known methods to align corresponding features of the post image - planned surgical 204 and planned post-surgical cephalometric monitoring 206.
  • the computer-assisted surgical planning tool can memorize (for example, in a computer-readable medium) reference marks modified cephalometric as part of the planned post-surgical image 204 (for example, as metadata in a digital file of the planned post-surgical image 204).
  • Figures 3A and 3B illustrate another example of a user interface screen of a computer-assisted surgical planning tool, in accordance with embodiments of the present description.
  • the user interface screen 300 may include three panoramic views representing the pre-surgical image 202, the planned post-surgical image 204, and the frame image of the animation midpoint 302.
  • the computer-assisted surgical planning tool can also load and represent on each of the pre-surgical image 202 and the planned post-surgical image 204 several cephalometric reference marks 102-130 and 304 line segments between adjacent cephalometric reference marks.
  • each line segment 304 of the image 202 has a corresponding line segment 304 in the image 204 (for example, the line segment 304 between the soft tissue sheath 102 and the soft tissue nas 104 of the image 202 corresponds to line segment 304 between soft tissue shed 102 and soft tissue nas 104 of image 204, and so on).
  • metamorphosis from one image to the other typically includes the creation of an animation that gradually dissolves between the first image and the second image, disfiguring it. Time the first image in the second image. Therefore, often, the middle frame of the animation is an average of the first distorted and faded image crossed halfway to the second image and the second distorted and faded image crossed halfway to the first image.
  • the disfigurement of one image to another may include the establishment of one or more line segments on the first image, each associated with a particular characteristic and a corresponding line segment in the second image for each line segment of the first image.
  • Each intermediate frame of the animation can be defined by creating a new set of line segments by interpolating the line segments from their positions in the first image to their positions in the second image. Both images are distorted towards the position of the line segments in each intermediate frame, and the two resulting images are dissolved across the animation.
  • Each pixel of the images can be distorted by a rotation, translation, and / or a scale based on their distance and relationship with each of the line segments.
  • the computer-assisted surgical planning tool can generate a plurality of line segments 304 for the pre image -surgical 202 and a plurality of corresponding line segments 304 for post-surgical image 204 on the basis of cephalometric reference marks and representing such line segments 304.
  • the computer-assisted surgical planning tool can allow a User define and represent additional pairs of line segments for other characteristics (for example, an ear, a stripe on the hair, a cleavage on the clothes, etc.) to further improve the quality of the animation.
  • the computer-assisted surgical planning tool may represent an animation midpoint frame image 302.
  • the midpoint frame image 302 may represent the animation halfway between image 202 and image 204 using the corresponding pairs of line segments 304 generated by the computer-assisted surgical planning tool and any corresponding pair of user-defined line segments.
  • Such a midpoint frame image 302 may provide a visual guide to the user, potentially identifying features for which a user may wish to define associated line segments in order to create a higher quality animation.
  • the midpoint frame image 302 may indicate non-overlapping areas or phantom areas of the distorted pre-surgical image 202 midway and the planned post-surgical image 204 distorted midway for which a user can Define additional pairs of line segments.
  • line segments 304 by the computer-assisted surgical planning tool can reduce the effort required by a user to generate an animation, since it can reduce or eliminate the need for a user to define numerous line segments required for a metamorphosis Quality between images.
  • Figure 3B represents the midpoint frame image 303 in the absence of pairs of line segments 304 in images 202 and 204.
  • the absence of pairs of line segments 304 in images 202 and 204 may lead to significant areas of non-overlap or phantom areas of the distorted pre-surgical image midway 202, and of the planned post-surgical image distorted midway 204 , which requires a user to manually define pairs of line segments in order to create a quality animation.
  • FIG 4 illustrates a block diagram of an example calculation system 1200, in accordance with embodiments of the present description.
  • the calculation system 1200 can be used to provide or perform, in whole or in part, various functions and operations described above with respect to Figures 1 to 3B.
  • the 12300 calculation system may include processor 1202, memory 1204 and logic 1206.
  • the calculation system 1200 may comprise any suitable combination of hardware and / or software implemented in one or more modules to provide or perform the functions and operations described above with respect to Figures 1 to 3B.
  • the computer system 1200 may comprise a central computer, a general purpose personal computer (PC), a Macintosh, a workstation, a Unix-based computer, a server computer, or any suitable processing device.
  • the functions and operations described above may be performed by a set of multiple calculation systems 1200.
  • the memory 1200 may comprise any suitable arrangement of random access memory (RAM), read-only memory (ROM), computer magnetic disk, CD-ROM, or other magnetic, optical or solid-state storage media, or any device of volatile or non-volatile memory, which record one or more files, lists, tabas, or other information provisions.
  • RAM random access memory
  • ROM read-only memory
  • CD-ROM compact disc-read only memory
  • SSD compact disc-read only memory
  • Figure 4 illustrates the memory 104 as internal to the calculation system, it should be understood that the memory 1204 may be internal or external to the calculation system 1200, depending on the particular implementations. Memory 1204 may be separate or integral from other memory devices to achieve any suitable arrangement of memory devices for use in providing or performing desired operations or functionality.
  • Memory 1204 can also be operative to store the logic.
  • Logic 1206 generally comprises rules, algorithms, code, tables and / or other suitable instructions that are executable by processor 1202 to provide or perform the functions and operations described above with respect to Figures 1 to 3B.
  • Memory 1204 may be coupled for communication with the processor
  • the processor 122 may be operative, in general, to execute the logic to perform operations described therein.
  • the processor 1202 may comprise any suitable combination of hardware and software implemented in one or more modules to provide the described function or operation.

Abstract

Se proporciona un método para generar una mutación animada entre una primera imagen y una segunda imagen. El método puede incluir: i) leer un primer conjunto de puntos de marcas de referencia cefalométricas asociados con la primera imagen; (ii) leer un segundo conjunto de puntos de marcas de referencia cefalométricas asociados con la segunda imagen; (iii) definir un primer conjunto de segmentos de línea definiendo un segmento de línea entre cada una del primer conjunto de marcas de referencia cefalométricas; (iv) definir un segundo conjunto de segmentos de línea definiendo un segmento de línea entre cada una del segundo conjunto de marcas de referencia cefalométricas, de tal manera que cada segmento de línea del segundo conjunto de segmentos de línea corresponde a un segmento de línea correspondiente del primer conjunto de segmentos de línea; y (v) generar una animación desfigurando de forma progresiva la primera imagen con respecto a la segunda imagen basado al menos en el primer conjunto de segmentos de línea y en el segundo conjunto de segmentos de línea.

Description

SISTEMA Y MÉTODO PARA GENERAR MUTACIÓN DE PERFILES UTILIZANDO DATOS DE SEGUIMIENTO CEFALOMÉTRICO
CAMPO TÉCNICO
La presente invención se refiere, en general, a la formación de imágenes dentofaciales y, más particularmente, a sistemas y métodos para planificación quirúrgica utilizando la formación de imágenes dentofaciales.
ANTECEDENTES
La cirugía dentofacial, también referida como cirugía oral y cirugía maxilofacial, se emplea a menudo para corregir un amplio espectro de enfermedades, lesiones y defectos en la cabeza, cuello, cara, mandíbulas y en los tejidos duros y blandos de la región oral y maxilofacial de humanos o de otros pacientes no-humanos. A medida que mejoran las capacidades de ordenadores y software, los médicos de cirugía dentofacial utilizan cada vez más herramientas de formación de imágenes dentofaciales asistidos por ordenador con el fin de modelar características dentofaciales de pacientes, diagnosticar enfermedades, lesiones y defectos, planificar procedimientos de cirugía dentofacial y otros tratamientos, y educar a los pacientes con respecto a diagnosis y tratamientos.
Por ejemplo, para educar a un paciente con respeto a un cambio potencial en la apariencia física que resulta de tratamiento dentofacial, un médico puede desear presentar al paciente una imagen "antes" del paciente con anterioridad al tratamiento, una imagen "después" que representa al paciente después del tratamiento, y una animación o "mutación" entre las imágenes antes y después. Tradicionalmente, la mutación se lleva a cabo realizando manualmente características esenciales sobre una primera imagen, tal como el contorno de la nariz o la localización de un ojo, y marcando manualmente dónde se encontraban estos mismos puntos en la segunda imagen, creando parejas múltiples de segmentos de línea. El software crearía entonces una animación, distorsionando lentamente la primera imagen para tener las características de la segunda imagen al mismo tiempo que se realiza un desvanecimiento cruzado entre las dos imágenes. Sin embargo, tal realización manual de las características puede requerir mucho tiempo y, por lo tanto, no es deseable.
Como otro ejemplo, para planificar y simular una cirugía dentofacial, un médico puede modificar virtualmente, con la ayuda de una herramienta asistida por ordenador, varios huesos o segmentos de huesos del paciente a través de una interfaz de usuario de un ordenador. Tal planificación y simulación asistidas por ordenador puede permitir a un médico simular el efecto de varios ajustes quirúrgicos sobre un paciente, incluyendo efectos sobre a apariencia estética de un paciente. No obstante, las herramientas tradicionales de planificación y simulación quirúrgicas asistidas por ordenador tienen inconvenientes significativos. Por ejemplo, las imágenes digitales de tejidos faciales de un paciente generadas por dispositivos de formación de imágenes pueden incluir ruido y otros artefactos no deseables. Por lo tanto, muchas herramientas tradicionales de planificación y simulación permiten a un médico realizar una "limpieza" de una imagen digital para eliminar el ruido de la imagen. Sin embargo, tal limpieza del ruido es complicada debido a las formas no lineales y tridimensionales de los tejidos que comprende una cabeza humana. Como otro ejemplo, las herramientas tradicionales de planificación y simulación permiten típicamente a un médico realizar ajustes quirúrgicos bidimensionales del hueso y generar una respuesta bidimensional simulada de tejido blando sobre la base de tales ajustes, que no permite al médico ver un modelo tridimensional de la respuesta de tejido blando.
SUMARIO
De acuerdo con las enseñanzas de la presente descripción, los inconvenientes y problemas asociados con métodos tradicionales para planificación quirúrgica utilizando formación de imágenes dentofaciales se pueden reducir sustancialmente o eliminar.
De acuerdo con formas de realización de la presente descripción, se proporciona un método para generar una mutación animada entre una primera imagen y una segunda imagen. El método puede incluir: (i) leer un primer conjunto de puntos de marcas de referencia cefalométricas asociados con la primera imagen; (ii) leer un segundo conjunto de puntos de marcas de referencia cefalométricas asociados con la segunda imagen; (iii) definir un primer conjunto de segmentos de línea definiendo un segmento de línea entre cada una del primer conjunto de marcas de referencia cefalométricas; (iv) definir un segundo conjunto de segmentos de línea de marcas línea definiendo un segmento de línea entre cada una del segundo conjunto de marcas de referencia cefalométricas, de tal manera que cada segmento de línea del segundo conjunto de segmentos de línea corresponde a un segmento de línea correspondiente del primer conjunto de segmentos de línea; y (v) generar una animación desfigurando de forma progresiva la primera imagen con respecto a la segunda imagen basado al menos en el primer conjunto de segmentos de línea y en el segundo conjunto de segmentos de línea.
De acuerdo con formas de realización adicionales de la presente descripción, un artículo de fabricación puede incluir un medio no-transitorio legible por ordenador; e instrucciones ejecutables por ordenador llevadas sobre el medio legible por ordenador. Las instrucciones pueden ser ejecutadas por uno o más procesadores y pueden estar configuradas para provocar que uno o más procesadores: (i) lean un primer conjunto de puntos de marcas de referencia cefalométricas asociados con la primera imagen; (ii) lean un segundo conjunto de puntos de marcas de referencia cefalométricas asociados con la segunda imagen; (iii) definan un primer conjunto de segmentos de línea definiendo un segmento de línea entre cada una del primer conjunto de marcas de referencia cefalométricas; (iv) definan un segundo conjunto de segmentos de línea definiendo un segmento de línea entre cada una del segundo conjunto de marcas de referencia cefalométricas, de tal manera que cada segmento de línea del segundo conjunto de segmentos de línea corresponde a un segmento de línea correspondiente del primer conjunto de segmentos de línea; y (v) generen una animación desfigurando de forma progresiva la primera imagen con respecto a la segunda imagen basado al menos sobre el primer conjunto de segmentos de línea y el segundo conjunto de segmentos de línea.
De acuerdo con otras formas de realización de la presente descripción, un sistema de cálculo puede comprender un procesador y una memoria acoplada por comunicación con el procesador. La memoria puede tiene almacenado en ella un programa de instrucciones configurado, cuando es ejecutado por el procesador, para: (i) leer un primer conjunto de puntos de marcas de referencia cefalométricas asociados con la primera imagen; (ii) leer un segundo conjunto de puntos de marcas de referencia cefalométricas asociados con la segunda imagen; (iii) definir un primer conjunto de segmentos de línea definiendo un segmento de línea entre cada una del primer conjunto de marcas de referencia cefalométricas; (iv) definir un segundo conjunto de segmentos de línea definiendo un segmento de línea entre cada una del segundo conjunto de marcas de referencia cefalométricas, de tal manera que cada segmento de línea del segundo conjunto de segmentos de línea corresponde a un segmento de línea correspondiente del primer conjunto de segmentos de línea; y (v) generar una animación desfigurando de forma progresiva la primera imagen con respecto a la segunda imagen basado al menos en el primer conjunto de segmentos de línea y en el segundo conjunto de segmentos de línea.
Otras ventajas técnicas serán evidentes para los técnicos ordinarios a la vista de la siguiente memoria descriptiva, las reivindicaciones y los dibujos. BREVE DESCRIPCION DE LOS DIBUJOS
Se puede adquirir una comprensión más completa de las presentes formas de realización y ventajas de las mismas con referencia a la descripción siguiente tomada en combinación con los dibujos que se acompañan, en los que los números de referencia iguales indicar las mismas características, y en los que:
La figura 1 ilustra un ejemplo de seguimiento cefalométrico de tejido blando y de características de los huesos de una vista de perfil de un individuo, de acuerdo con formas de realización de la presente descripción.
La figura 2 ilustra un ejemplo de una pantalla de interfaz de usuario 200 de una herramienta de planificación quirúrgica asistida por ordenador, de acuerdo con formas de realización de la presente descripción.
Las figuras 3A y 3B ilustran otro ejemplo de pantalla de interfaz de usuario de una herramienta de planificación quirúrgica asistida por ordenador, de acuerdo con formas de realización de la presente descripción.
La figura 4 ilustra un diagrama de bloques de un ejemplo de sistema de cálculo, de acuerdo con formas de realización de la presente descripción.
DESCRIPCIÓN DETALLADA
La figura 1 ilustra un ejemplo de seguimiento cefalométrico 100 de tejido blando y de características de los huesos de una vista de perfil de un individuo, de acuerdo con formas de realización de la presente descripción. Un seguimiento cefalométrico se puede trazar sobre la base de una radiografía u otra imagen del tejido de la cabeza de un individuo o extraída de otra manera a partir de tal radiografía u otra imagen, y se puede utilizar para estudiar relaciones entre marcas de referencia de tejido óseo y de tejido blando, para diagnosticar anormalidades de crecimiento facial antes del tratamiento, en el centro del tratamiento para evaluar el progresos, y al término del tratamiento para cerciorarse de que se han cumplido los objetivos del tratamiento. Como se muestra en la figura 1, tales marcas de referencia pueden incluir, sin limitación:
• glabella de tejido blando 102 - superficie de tejido blando que cubre el punto más anterior del hueso frontal (por ejemplo, entre las cejas de un individuo), • nasion de tejido blando 104 - el tejido blando del punto más cóncavo del perfil de tejido blando en el puente de la nariz;
• puente de la nariz 106 - punto medio de la nasion de tejido blando 104 con respecto al punto pronasal 108 (por ejemplo, el primer contorno encontrado a lo largo de la longitud del perfil de la nariz);
• pronasal 108 - punto mas anterior de la curva de la nariz (por ejemplo, punta de la nariz);
• subnasal 110 - punto en el que la nariz se conecta con el centro del labio superior;
· punto A de tejido blando 112 - punto más cóncavo entre subnasal 110 y el labio de la nariz 114;
• labio superior 114 - punto más anterior sobre la curva del labio superior;
• stomion superius 116 - punto más inferior sobre la curva del labio superior;
• stomion inferius 118 - punto más superior sobre la curva del labio inferior; · labio inferior 120 - punto más anterior sobre la curva del labio inferior;
• punto B de tejido blando 122 - punto más cóncavo entre el labio inferior 120 y el pogonion de tejido blando 124;
• pogonion de tejido blando 124 - punto mas anterior sobre la curva anterior de la barbilla de tejido blando;
· gnathion de tejido blando 126 - punto medio entre el pogonion de tejido blando 124 y el mentón de tejido blando 128;
• mentón de tejido blando 128 - el punto más inferior de la barbilla de tejido blando; y
• punto de garganta 130 - intersección de líneas tangentes al cuello y a la garganta.
En algunas formas de realización, el seguimiento cefalométrico 100 puede ser creado por o con la asistencia de una herramienta de planificación quirúrgica asistida por ordenador que se ejecuta en un ordenador. Por ejemplo, la herramienta de planificación quirúrgica asistida por ordenador puede leer una radiografía u otra imagen o sobre la base del contenido de tal imagen puede generar una o más porciones de un seguimiento cefalométrico y/o identificar una o más marcas de referencia cefalométricas. De manera alternativa o adicional, la herramienta de planificación quirúrgica asistida por ordenador puede representan una radiografía u otra imagen y un médico, a través de una interfaz de usuario de la herramienta de planificación quirúrgica, puede utilizar la imagen como una guía para diseñar el seguimiento cefalométrico de las características de tejido óseo o de tejido blando y/o identificar una o más marcas de referencia cefalométricas. La herramienta de planificación quirúrgica asistida por ordenador puede almacenar (por ejemplo, en un medio legible por ordenador) el seguimiento cefalométrico, las marcas de referencia cefalométricas y/o sus coordenadas asociadas.
La figura 2 ilustra un ejemplo de una pantalla de interfaz de usuario 200 de una herramienta de planificación quirúrgica asistida por ordenador, de acuerdo con formas de realización de la presente descripción. Como se muestra en la figura 2, la pantalla de interfaz de usuario 200 puede incluir una imagen del perfil pre-quirúrgico 202 de un individuo con el seguimiento cefalométrico 100 pre-quirúrgico de la figura 1 superpuesto sobre la imagen 22, y una imagen post-quirúrgica 204 planificada del mismo individua con un seguimiento cefalométrico post-quirúrgico 206 planificado superpuesto sobre la imagen 204.
La imagen del perfil pre-quirúrgico 202 puede ser generada tomando una fotografía del perfil del individuo en cuestión. La herramienta de planificación quirúrgica asistida por ordenador puede ser configurada para leer la imagen (por ejemplo, a partir de un medio legible por ordenador) y, en respuesta a una entrada del usuario, para superponer el seguimiento cefalométrico 100 sobre la imagen 202. En algunas formas de realización, la herramienta de planificación quirúrgica puede estar configurada para detectar y alinear características correspondientes de la imagen 202 y del seguimiento cefalométrico 100 y para alinear la imagen 202. En otras formas de realización, la herramienta de planificación quirúrgica puede estar configurada para permitir a un usuario a través de una interfaz de usuario ajustar la imagen 202 y/o el seguimiento cefalométrico 100 con el fin de alinear características. Una imagen 202 y el seguimiento cefalométrico 100 son alineados como se desea, varias marcas de referencia cefalométricas (por ejemplo las marcas de referencia 102-103) se pueden memorizar como parte de la imagen de perfil 202 (por ejemplo como metadatos en un fichero digital de la imagen de perfil 202).
El seguimiento cefalométrico post-quirúrgico planificado 206 puede ser creado a partir del seguimiento cefalométrico pre-quirúrgico 100 por un médico a través de interacción con la herramienta de planificación quirúrgica asistida por ordenador para modificar (por ejemplo, con un ratón u otro dispositivo similar de entrada del usuario) el seguimiento cefalométrico 100 y/o localizaciones de marcas de referencia cefalométricas para obtener características post-quirúrgicas deseadas. Por ejemplo, la herramienta de planificación quirúrgica asistida por ordenador puede desfigurar el seguimiento cefalométrico 100 en respuesta a una entrada del usuario, de acuerdo con métodos bien conocidos. La herramienta de planificación quirúrgica asistida por ordenador puede memorizar (por ejemplo, en un medio legible por ordenador) el seguimiento cefalométrico post-quirúrgico planificado 206 y sus marcas de referencia cefalométricas asociadas (modificadas).
La imagen post-quirúrgica planificada 204 puede ser creada a partir de una imagen pre-quirúrgica 202 basada en diferencias entre el seguimiento cefalométrico post-quirúrgico 206 y el seguimiento cefalométrico pre-quirúrgico 100. Por ejemplo, sobre la base de las diferencias de localizaciones de elementos de seguimientos cefalométricos 100 y 206 y/o de las diferencias en las localizaciones de marcas de referencia cefalométricas, la herramienta de planificación quirúrgica asistida por ordenador puede desfigurar la imagen 202 de acuerdo con métodos bien conocidos para alinear características correspondientes de la imagen post-quirúrgica planificada 204 y el seguimiento cefalométrico post-quirúrgico planificado 206. Después de la creación de la imagen pre-quirúrgica planificada, la herramienta de planificación quirúrgica asistida por ordenador puede memorizar (por ejemplo, en un medio legible por ordenador) marcas de referencia cefalométricas modificadas como parte de la imagen post-quirúrgica planificada 204 (por ejemplo, como metadatos en un fichero digital de la imagen post-quirúrgica planificada 204).
Las figuras 3A y 3B ilustran otro ejemplo de pantalla de interfaz de usuario de una herramienta de planificación quirúrgica asistida por ordenador, de acuerdo con formas de realización de la presente descripción. Como se muestra en la figura 3 A, la pantalla de interfaz de usuario 300 puede incluir tres vistas panorámicas que representan la imagen pre-quirúrgica 202, la imagen post-quirúrgica planificada 204, y la imagen de cuadros del punto medio de animación 302. Además, como se muestra en la figura 3AA, la herramienta de planificación quirúrgica asistida por ordenador puede cargar y representar también sobre cada una de la imagen pre- quirúrgica 202 y la imagen post-quirúrgica planificada 204 varias marcas de referencia cefalométricas 102-130 y segmentos de línea 304 entre marcas de referencia cefalométricas adyacentes. De acuerdo con ello, cada segmento de línea 304 de la imagen 202 tiene un segmento de línea 304 correspondiente en la imagen 204 (por ejemplo, el segmento de línea 304 entre la gabella de tejido blando 102 y la nasion de tejido blando 104 de la imagen 202 corresponde al segmento de línea 304 entre la gabella de tejido blando 102 y la nasion de tejido blando 104 de la imagen 204, y así sucesivamente). Como se muestra en la técnica, la metamorfosis desde una imagen hacia la otra (por ejemplo, creando una "mutación") incluye típicamente la creación de una animación que realiza una disolución cruzada gradualmente entre la primera imagen y la segunda imagen, desfigurando al mismo tiempo la primera imagen en la segunda imagen. Por lo tanto, con frecuencia, el cuadro medio de la animación es una media de la primera imagen distorsionada y desvanecida cruzada a medio camino hacia la segunda imagen y la segunda imagen distorsionada y desvanecida cruzada a medio camino hacia la primera imagen.
Como de muestra en la técnica, la desfiguración de una imagen a otra puede incluir el establecimiento de uno o más segmentos de línea sobre la primera imagen, cada una asociada con una característica particular y de un segmento de línea correspondiente en la segunda imagen para cada segmento de línea de la primera imagen. Cada cuadro intermedio de la animación puede ser definido creando un nuevo conjunto de segmentos de línea interpolando los segmentos de línea desde sus posiciones en la primera imagen a sus posiciones en la segunda imagen. Ambas imágenes son distorsionadas hacia la posición de los segmentos de línea en cada cuadro intermedio, y las dos imágenes resultantes son disueltas cruzadas a través de la animación. Cada pixel de las imágenes puede ser distorsionado por una rotación, traslación, y/o una escala basada en su distancia y relación con cada uno de los segmentos de línea.
Para facilitar la creación de una animación entre la imagen pre-quirúrgica 202 y la imagen post-quirúrgica planificada 204, la herramienta de planificación quirúrgica asistida por ordenador, como se ha descrito anteriormente puede generar una pluralidad de segmentos de línea 304 para la imagen pre-quirúrgica 202 y una pluralidad de segmentos de línea 304 correspondientes para la imagen post- quirúrgica 204 sobre la base de las marcas de referencia cefalométricas y representar tales segmentos de línea 304. Además, la herramienta de planificación quirúrgica asistida por ordenador puede permitir a un usuario definir y representar parejas adicionales de segmentos de línea para otras características (por ejemplo, una oreja, una raya en el pelo, un escote en la ropa, etc.) para mejorar adicionalmente la calidad de la animación.
Además, como se ha descrito anteriormente, la herramienta de planificación quirúrgica asistida por ordenador puede representar una imagen de cuadro de punto medio de animación 302. La imagen de cuadro de punto medio 302 puede representar el cuadro medio de la animación entre la imagen 202 y la imagen 204 utilizando las parejas correspondientes de segmentos de línea 304 generados por la herramienta de planificación quirúrgica asistida por ordenador y cualquier pareja correspondiente de segmentos de línea definida por un usuario. Tal imagen de cuadro de punto medio 302 puede proporcionar una guía visual al usuario, identificando potencialmente características para las que un usuario puede desear definir unos segmentos de línea asociados con el fin de crear una animación de mayor calidad. Por ejemplo, la imagen de cuadro de punto medio 302 puede indicar áreas de no solape o áreas fantasma de la imagen pre-quirúrgica 202 distorsionada a medio camino y de la imagen post-quirúrgica planificada 204 distorsionada a medio camino para la que un usuario puede definir parejas adicionales de segmentos de línea.
La generación de segmentos de línea 304 por la herramienta de planificación quirúrgica asistida por ordenador puede reducir el esfuerzo requerido por un usuario para generar una animación, ya que puede reducir o eliminar la necesidad de que un usuario defina numerosos segmentos de línea requeridos para una metamorfosis de calidad entre imágenes. Esta ventaja se puede ver por referencia a la figura 3B, que representa la imagen de cuadro de punto medio 303 en ausencia de parejas de segmentos de línea 304 en las imágenes 202 y 204. Como es evidente a partir de la figura 3B, la ausencia de parejas de segmentos de línea 304 en las imágenes 202 y 204 puede conducir a áreas significativas de no-solape o áreas fantasma de la imagen pre-quirúrgica distorsionada a medio camino 202, y de la imagen post-quirúrgica planificada distorsionada a medio camino 204, lo que exige a un usuario definir manualmente parejas de segmentos de líneas con el fin de crear una animación de calidad.
La figura 4 ilustra un diagrama de bloques de un ejemplo de sistema de cálculo 1200, de acuerdo con formas de realización de la presente descripción. El sistema de cálculo 1200 se puede utilizar para proporcionar o realizar, total o parcialmente, varias funciones y operaciones descritas anteriormente con respecto a las figuras 1 a 3B. Como se muestra en la figura 12, el sistema de cálculo 12300 puede incluir procesador 1202, memoria 1204 y lógica 1206.
El sistema de cálculo 1200 puede comprender cualquier combinación adecuada de hardware y/o software implementados en uno o más módulos para proporcionar o realizar las funciones y operaciones descritas anteriormente con respecto a las figuras 1 a 3B. En algunas formas de realización, el sistema de ordenador 1200 puede comprender un ordenador central, un ordenador personal de uso general (PC), un Macintosh, un puesto de trabajo, un ordenador basado en Unix, un ordenador servidor, o cualquier dispositivo de procesamiento adecuado. En algunas formas de realización, las funciones y operaciones descritas anteriormente pueden ser realizadas por un conjunto de sistemas de cálculo múltiples 1200.
La memoria 1200 puede comprende cualquier disposición adecuada de memoria de acceso aleatorio (RAM), memoria sólo de lectura (ROM), disco magnético de ordenador, CD-ROM, u otros medios de almacenamiento magnético, ópticos o en estado sólido, o cualquier dispositivo de memoria volátil o no volátil, que registran uno o más ficheros, listas, tabas, u otras disposiciones de información. Aunque la figura 4 ilustra la memoria 104 como interna del sistema de cálculo, debería entenderse que la memoria 1204 puede ser interna o externa al sistema de cálculo 1200, en función de las implementaciones particulares. La memoria 1204 puede estar separada o integral de otros dispositivos de memoria para conseguir cualquier disposición adecuada de dispositivos de memoria para uso en proporcionar o realizar operaciones o funcionalidad deseadas.
La memoria 1204 puede ser operativa, además, para almacenar la lógica
1206. La lógica 1206 comprende, en general, reglas, algoritmos, código, tablas y/u otras instrucciones adecuadas que son ejecutables por el procesador 1202 para proporcionar o realizar las funciones y operaciones descritas anteriormente con respecto a las figuras 1 a 3B.
La memoria 1204 puede están acoplada para comunicación con el procesador
1202. El procesador 122 puede ser operativo, en general, para ejecutar la lógica para realizar operaciones descritas allí. El procesador 1202 puede comprender cualquier combinación adecuada de hardware y software implementada en uno o más módulos para proporcionar la función u operación descrita.
Aunque la presente invención ha sido descrita en detalle, debería entenderse que se pueden realizar varios cambios, sustituciones y alteraciones en ella sin apartarse del espíritu y el alcance de la invención, como redefine por las reivindicaciones anexas.

Claims

REIVINDICACIONES
1. - Un método para generar una mutación animada entre una primera imagen y una segunda imagen, que comprende:
leer un primer conjunto de puntos de marcas de referencia cefalométricas asociados con la primera imagen;
leer un segundo conjunto de puntos de marcas de referencia cefalométricas asociados con la segunda imagen;
definir un primer conjunto de segmentos de línea definiendo un segmento de línea entre cada una del primer conjunto de marcas de referencia cefalométricas; definir un segundo conjunto de segmentos de línea de marcas línea definiendo un segmento de línea entre cada una del segundo conjunto de marcas de referencia cefalométricas, de tal manera que cada segmento de línea del segundo conjunto de segmentos de línea corresponde a un segmento de línea correspondiente del primer conjunto de segmentos de línea; y
generar una animación desfigurando de forma progresiva la primera imagen con respecto a la segunda imagen basado al menos en el primer conjunto de segmentos de línea y en el segundo conjunto de segmentos de línea.
2. - Un método de acuerdo con la reivindicación 1, en el que:
el primer conjunto de puntos de marcas de referencia cefalométricas están almacenados como metadatos de la primera imagen; y
el segundo conjunto de puntos de marcas de referencia cefalométricas están almacenados como metadatos de la segunda imagen.
3. - Un método de acuerdo con la reivindicación 1, en el que la localización del primer conjunto de puntos de marcas de referencia cefalométricas y del segundo conjunto de puntos de marcas de referencia cefalométricas se basan al menos en un seguimiento cefalométrico de características cráneo-faciales de un paciente.
4. - Un método de acuerdo con la reivindicación 1, en el que la localización del primer conjunto de puntos de marcas de referencia cefalométricas y del segundo conjunto de puntos de marcas de referencia cefalométricas se basan al menos en una radiografía de características cráneo-faciales de un paciente.
5. - Un método de acuerdo con la reivindicación 1, que comprende, además, recibir entrada desde un usuario, definiendo la entrada unos segmentos de línea adicionales del primer conjunto de segmentos de línea y unos segmentos de línea adicionales correspondientes del segundo conjunto de segmentos de línea.
6.- Un método de acuerdo con la reivindicación 1, en el que la generación de animación comprende generar uno o más cuadros intermedios de la animación, estado definido cada cuadro intermedio:
generando un conjunto de segmentos de línea particulares del cuadro intermedio, siendo definido el conjunto de segmentos de línea por interpolación del primer conjunto de segmentos de línea y del segundo conjunto de segmentos de línea;
distorsionando cada píxel de la primera imagen basado al menos en la posición del píxel con relación al primer conjunto de segmentos de línea y al conjunto de segmentos de línea particular del cuadro intermedio;
distorsionando cada píxel de la segunda imagen basado al menos en la posición del píxel con relación al segundo conjunto de segmentos de línea y al conjunto de segmentos de línea particular del cuadro intermedio; y
disolución cruzada de la primera imagen de píxel distorsionado y de la segunda imagen de píxel distorsionado.
7.- Un método de acuerdo con la reivindicación 6, en el que la distorsión de un píxel comprende al menos una de rotación, traslación y escalación del pixel.
8.- Un artículo de fabricación, que comprende:
un medio no-transitorio legible por ordenador; e
instrucciones ejecutables por ordenador llevadas sobre el medio legible por ordenador; siendo ejecutables las instrucciones por uno o más procesadores y estando configuradas para provocar que uno o más procesadores:
lean un primer conjunto de puntos de marcas de referencia cefalométricas asociados con la primera imagen;
lean un segundo conjunto de puntos de marcas de referencia cefalométricas asociados con la segunda imagen;
definan un primer conjunto de segmentos de línea definiendo un segmento de línea entre cada una del primer conjunto de marcas de referencia cefalométricas; definan un segundo conjunto de segmentos de línea definiendo un segmento de línea entre cada una del segundo conjunto de marcas de referencia cefalométricas, de tal manera que cada segmento de línea del segundo conjunto de segmentos de línea corresponde a un segmento de línea correspondiente del primer conjunto de segmentos de línea; y
generen una animación desfigurando de forma progresiva la primera imagen con respecto a la segunda imagen basado al menos sobre el primer conjunto de segmentos de línea y el segundo conjunto de segmentos de línea.
9. - Un artículo de fabricación de acuerdo con la reivindicación 8, en el que: el primer conjunto de puntos de marcas de referencia cefalométricas están almacenados como metadatos de la primera imagen; y
el segundo conjunto de puntos de marcas de referencia cefalométricas están almacenados como metadatos de la segunda imagen.
10. - Un artículo de fabricación de acuerdo con la reivindicación 8, en el que la localización del primer conjunto de puntos de marcas de referencia cefalométricas y del segundo conjunto de puntos de marcas de referencia cefalométricas se basan al menos en un seguimiento cefalométrico de características cráneo-faciales de un paciente.
11. - Un artículo de fabricación de acuerdo con la reivindicación 8, en el que la localización del primer conjunto de puntos de marcas de referencia cefalométricas y del segundo conjunto de puntos de marcas de referencia cefalométricas se basan al menos en una radiografía de características cráneo-faciales de un paciente.
12.- Un artículo de fabricación de acuerdo con la reivindicación 8, en el que las instrucciones están configuradas, además, para provocar que uno o más procesadores reciban entrada desde un usuario, definiendo la entrada unos segmentos de línea adicionales del primer conjunto de segmentos de línea y unos segmentos de línea adicionales correspondientes del segundo conjunto de segmentos de línea.
13.- Un artículo de fabricación de acuerdo con la reivindicación 8, en el que las instrucciones están configuradas, además, para provocar que uno o más procesadores generen la animación generando uno o más cuadros intermedios de la animación, estado definido cada cuadro intermedio:
generando un conjunto de segmentos de línea particulares del cuadro intermedio, siendo definido el conjunto de segmentos de línea por interpolación del primer conjunto de segmentos de línea y del segundo conjunto de segmentos de línea;
distorsionando cada píxel de la primera imagen basado al menos en la posición del píxel con relación al primer conjunto de segmentos de línea y al conjunto de segmentos de línea particular del cuadro intermedio;
distorsionando cada píxel de la segunda imagen basado al menos en la posición del píxel con relación al segundo conjunto de segmentos de línea y al conjunto de segmentos de línea particular del cuadro intermedio; y
disolución cruzada de la primera imagen de píxel distorsionado y de la segunda imagen de píxel distorsionado.
14. - Un artículo de fabricación de acuerdo con la reivindicación 13, en el que la distorsión de un píxel comprende al menos una de rotación, traslación y escalación del pixel.
15. - Un sistema de cálculo, que comprende:
un procesador; y
una memoria acoplada por comunicación con el procesador y que tiene almacenado en ella un programa de instrucciones configurado, cuando es ejecutado por el procesador, para:
leer un primer conjunto de puntos de marcas de referencia cefalométricas asociados con la primera imagen;
leer un segundo conjunto de puntos de marcas de referencia cefalométricas asociados con la segunda imagen;
definir un primer conjunto de segmentos de línea definiendo un segmento de línea entre cada una del primer conjunto de marcas de referencia cefalométricas; definir un segundo conjunto de segmentos de línea definiendo un segmento de línea entre cada una del segundo conjunto de marcas de referencia cefalométricas, de tal manera que cada segmento de línea del segundo conjunto de segmentos de línea corresponde a un segmento de línea correspondiente del primer conjunto de segmentos de línea; y
generar una animación desfigurando de forma progresiva la primera imagen con respecto a la segunda imagen basado al menos en el primer conjunto de segmentos de línea y en el segundo conjunto de segmentos de línea.
16. - Un sistema de cálculo de acuerdo con la reivindicación 15, en el que: el primer conjunto de puntos de marcas de referencia cefalométricas están almacenados como metadatos de la primera imagen; y
el segundo conjunto de puntos de marcas de referencia cefalométricas están almacenados como metadatos de la segunda imagen.
17. - Un sistema de cálculo de acuerdo con la reivindicación 15, en el que la localización del primer conjunto de puntos de marcas de referencia cefalométricas y del segundo conjunto de puntos de marcas de referencia cefalométricas se basan al menos en un seguimiento cefalométrico de características cráneo-faciales de un paciente.
18. - Un sistema de cálculo de acuerdo con la reivindicación 15, en el que la localización del primer conjunto de puntos de marcas de referencia cefalométricas y del segundo conjunto de puntos de marcas de referencia cefalométricas se basan al menos en una radiografía de características cráneo-faciales de un paciente.
19. - Un sistema de cálculo de acuerdo con la reivindicación 15, en el que el programa está configurado, cuando es ejecutado pro el procesador, para recibir entrada desde un usuario, definiendo la entrada unos segmentos de línea adicionales del primer conjunto de segmentos de línea y unos segmentos de línea adicionales correspondientes del segundo conjunto de segmentos de línea.
20. - Un sistema de cálculo de acuerdo con la reivindicación 15, en el que las instrucciones están configuradas, además, para provocar que uno o más procesadores generen la animación generando uno o más cuadros intermedios de la animación, estado definido cada cuadro intermedio:
generando un conjunto de segmentos de línea particulares del cuadro intermedio, siendo definido el conjunto de segmentos de línea por interpolación del primer conjunto de segmentos de línea y del segundo conjunto de segmentos de línea;
distorsionando cada píxel de la primera imagen basado al menos en la posición del píxel con relación al primer conjunto de segmentos de línea y al conjunto de segmentos de línea particular del cuadro intermedio;
distorsionando cada píxel de la segunda imagen basado al menos en la posición del píxel con relación al segundo conjunto de segmentos de línea y al conjunto de segmentos de línea particular del cuadro intermedio; y
por disolución cruzada de la primera imagen de píxel distorsionado y de la segunda imagen de píxel distorsionado.
PCT/ES2011/070133 2011-03-01 2011-03-01 Sistema y método para generar mutación de perfiles utilizando datos de seguimiento cefalométrico WO2012117122A1 (es)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP11721071.6A EP2682068B1 (en) 2011-03-01 2011-03-01 System and method for generating profile change using cephalometric monitoring data
ES11721071.6T ES2651317T3 (es) 2011-03-01 2011-03-01 Sistema y método para generar cambio de perfil utilizando datos de monitorización cefalométricos
PCT/ES2011/070133 WO2012117122A1 (es) 2011-03-01 2011-03-01 Sistema y método para generar mutación de perfiles utilizando datos de seguimiento cefalométrico
US13/111,751 US8711178B2 (en) 2011-03-01 2011-05-19 System and method for generating profile morphing using cephalometric tracing data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/ES2011/070133 WO2012117122A1 (es) 2011-03-01 2011-03-01 Sistema y método para generar mutación de perfiles utilizando datos de seguimiento cefalométrico

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/111,751 Continuation US8711178B2 (en) 2011-03-01 2011-05-19 System and method for generating profile morphing using cephalometric tracing data

Publications (1)

Publication Number Publication Date
WO2012117122A1 true WO2012117122A1 (es) 2012-09-07

Family

ID=44626545

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/ES2011/070133 WO2012117122A1 (es) 2011-03-01 2011-03-01 Sistema y método para generar mutación de perfiles utilizando datos de seguimiento cefalométrico

Country Status (4)

Country Link
US (1) US8711178B2 (es)
EP (1) EP2682068B1 (es)
ES (1) ES2651317T3 (es)
WO (1) WO2012117122A1 (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9053563B2 (en) 2011-02-11 2015-06-09 E4 Endeavors, Inc. System and method for modeling a biopsy specimen
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
AU2012319093A1 (en) 2011-06-27 2014-01-16 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
JP5375897B2 (ja) * 2011-08-25 2013-12-25 カシオ計算機株式会社 画像生成方法、画像生成装置及びプログラム
US9020192B2 (en) * 2012-04-11 2015-04-28 Access Business Group International Llc Human submental profile measurement
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
KR20160084151A (ko) * 2015-01-05 2016-07-13 주식회사 모르페우스 얼굴 기반 서비스를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
US20170140505A1 (en) * 2015-11-13 2017-05-18 Microsoft Technology Licensing, Llc. Shape interpolation using a polar inset morphing grid
US20170239017A1 (en) * 2016-02-24 2017-08-24 eClear International Co., Ltd. Orthodontic treatment method using aesthetic guide line
ITUA20165257A1 (it) * 2016-06-28 2017-12-28 Lettieri Clealia Metodologia per la realizzazione di un apparecchio funzionale ortodontico per il trattamento di asimmetrie facciali
CN107802276B (zh) * 2017-09-01 2020-11-27 深圳市菲森科技有限公司 头颅影像的描迹图绘制装置和方法
KR20220126665A (ko) * 2021-03-09 2022-09-16 고려대학교 산학협력단 안면 이미지 매칭 기반의 시뮬레이션 장치 및 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5278756A (en) * 1989-01-24 1994-01-11 Dolphin Imaging Systems Method and apparatus for generating cephalometric images
US5342202A (en) * 1992-07-06 1994-08-30 Deshayes Marie Josephe Method for modelling cranio-facial architecture
US5825941A (en) * 1995-03-17 1998-10-20 Mirror Software Corporation Aesthetic imaging system
WO1999059106A1 (en) * 1998-05-13 1999-11-18 Acuscape International, Inc. Method and apparatus for generating 3d models from medical images
US20010007451A1 (en) * 1999-12-13 2001-07-12 International Business Machines Corporation Morphing processing apparatus, method, storage medium, program transmission apparatus, and animation creation apparatus
WO2002003304A2 (en) * 2000-06-30 2002-01-10 Tct International Plc Predicting changes in characteristics of an object
US20020090123A1 (en) * 2000-12-21 2002-07-11 Roland Bazin Methods for enabling evaluation of typological characteristics of external body portion, and related devices
US20050244794A1 (en) * 2004-04-30 2005-11-03 Kemp James H Computer-implemented system and method for automated and highly accurate plaque analysis, reporting, and visualization

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5975893A (en) * 1997-06-20 1999-11-02 Align Technology, Inc. Method and system for incrementally moving teeth
US7234937B2 (en) 1999-11-30 2007-06-26 Orametrix, Inc. Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics
JP4748843B2 (ja) 2000-01-25 2011-08-17 株式会社日立メディコ 臓器の特定領域抽出表示装置及び臓器の特定領域抽出表示方法をコンピュータに実行させるプログラムを記録した記録媒体
AU2001255638A1 (en) 2000-04-25 2001-11-07 Align Technology, Inc. Systems and methods for dental treatment planning
US7561725B2 (en) 2003-03-12 2009-07-14 Siemens Medical Solutions Usa, Inc. Image segmentation in a three-dimensional environment
WO2005025404A2 (en) 2003-09-08 2005-03-24 Vanderbilt University Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery
CA2580444A1 (en) 2004-11-26 2006-06-01 Bracco Imaging S.P.A. Methods for mapping knowledge structures to organs: automated measurements and visualization using knowledge structure mapping
US7659920B2 (en) * 2005-03-22 2010-02-09 Microsoft Corp. System and method for very low frame rate teleconferencing employing image morphing and cropping
US7953260B2 (en) 2006-06-09 2011-05-31 Craniosim Solutions, Inc. Predicting movement of soft tissue of the face in response to movement of underlying bone
US7840046B2 (en) 2006-06-27 2010-11-23 Siemens Medical Solutions Usa, Inc. System and method for detection of breast masses and calcifications using the tomosynthesis projection and reconstructed images
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
GB0707454D0 (en) 2007-04-18 2007-05-23 Materialise Dental Nv Computer-assisted creation of a custom tooth set-up using facial analysis
US7986823B2 (en) 2007-05-14 2011-07-26 Siemens Aktiengesellschaft System and method for consistent detection of mid-sagittal planes for magnetic resonance brain scans
US8275182B2 (en) 2007-09-27 2012-09-25 The University Of British Columbia University-Industry Liaison Office Method for automated delineation of contours of tissue in medical images
JP2009165558A (ja) 2008-01-11 2009-07-30 Panasonic Corp 口腔内測定方法および口腔内測定装置
US8896592B2 (en) 2009-08-21 2014-11-25 Align Technology, Inc. Digital dental modeling
US8244017B2 (en) 2010-02-08 2012-08-14 James Jiwen Chun Constructing three dimensional images using panoramic images
US20110285736A1 (en) 2010-05-21 2011-11-24 Kilgard Mark J Decomposing cubic bèzier segments for tessellation-free stencil filling
US8417004B2 (en) 2011-04-07 2013-04-09 Dolphin Imaging Systems, Llc System and method for simulated linearization of curved surface
US8650005B2 (en) 2011-04-07 2014-02-11 Dolphin Imaging Systems, Llc System and method for three-dimensional maxillofacial surgical simulation and planning

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5278756A (en) * 1989-01-24 1994-01-11 Dolphin Imaging Systems Method and apparatus for generating cephalometric images
US5342202A (en) * 1992-07-06 1994-08-30 Deshayes Marie Josephe Method for modelling cranio-facial architecture
US5825941A (en) * 1995-03-17 1998-10-20 Mirror Software Corporation Aesthetic imaging system
WO1999059106A1 (en) * 1998-05-13 1999-11-18 Acuscape International, Inc. Method and apparatus for generating 3d models from medical images
US20010007451A1 (en) * 1999-12-13 2001-07-12 International Business Machines Corporation Morphing processing apparatus, method, storage medium, program transmission apparatus, and animation creation apparatus
WO2002003304A2 (en) * 2000-06-30 2002-01-10 Tct International Plc Predicting changes in characteristics of an object
US20020090123A1 (en) * 2000-12-21 2002-07-11 Roland Bazin Methods for enabling evaluation of typological characteristics of external body portion, and related devices
US20050244794A1 (en) * 2004-04-30 2005-11-03 Kemp James H Computer-implemented system and method for automated and highly accurate plaque analysis, reporting, and visualization

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIA J ET AL: "THREE-DIMENSIONAL VIRTUAL REALITY SURGICAL PLANNING AND SIMULATION WORKBENCH FOR ORTHOGNATHIC SURGERY", INTERNATIONAL JOURNAL OF ADULT ORTHODONTICS AND ORTHOGNATICSURGERY, QUINTESSENCE PUBLISHING, CAROL STREAM, IL, US, vol. 15, no. 4, 21 December 2000 (2000-12-21), pages 265 - 282, XP008032679, ISSN: 0742-1931 *

Also Published As

Publication number Publication date
EP2682068B1 (en) 2017-11-08
US8711178B2 (en) 2014-04-29
ES2651317T3 (es) 2018-01-25
EP2682068A1 (en) 2014-01-08
US20120223970A1 (en) 2012-09-06

Similar Documents

Publication Publication Date Title
WO2012117122A1 (es) Sistema y método para generar mutación de perfiles utilizando datos de seguimiento cefalométrico
US8650005B2 (en) System and method for three-dimensional maxillofacial surgical simulation and planning
CN114641832A (zh) 照片和视频的临床相关匿名化
BR112012033392B1 (pt) Método e sistema de projeção de uma restauração dental para um paciente
CN109767841B (zh) 一种基于颅颌面三维形态数据库的相似模型检索方法及装置
Jiang et al. Registration technology of augmented reality in oral medicine: A review
Leonardi et al. Fully automatic segmentation of sinonasal cavity and pharyngeal airway based on convolutional neural networks
ES2908588T3 (es) Método para controlar una pantalla de presentación visual, programa informático y dispositivo de presentación visual de realidad mixta
Nowinski et al. Three-dimensional stereotactic atlas of the adult human skull correlated with the brain, cranial nerves, and intracranial vasculature
BR112020023692A2 (pt) método de análise de uma situação dentária real de um paciente e uso deste
BR112020023700A2 (pt) método de análise de uma situação dentária real de um paciente, dispositivo para implementação deste e uso deste
US8417004B2 (en) System and method for simulated linearization of curved surface
Jang et al. Fully automatic integration of dental CBCT images and full-arch intraoral impressions with stitching error correction via individual tooth segmentation and identification
Badiali et al. An average three-dimensional virtual human skull for a template-assisted maxillofacial surgery
CN114615951A (zh) 利用混合现实引导牙科治疗的系统和方法
Kundu et al. A detailed review of forensic facial reconstruction techniques
Verdenik et al. Three-dimensional facial changes correlated with sagittal jaw movements in patients with class III skeletal deformities
ES2718656T3 (es) Sistema y método de linealización simulada de superficie curva
WO2022173055A1 (ja) 骨格推定方法、装置、プログラム、システム、学習済みモデル生成方法、および学習済みモデル
Karimi et al. Morphometric facial analysis: a methodology to create lateral facial images
Salina Development of a framework for autonomous 3-dimensional craniofacial anthropometric data acquisition/Salina Mohd Asi
Asi Development of a Framework for Autonomous 3-Dimensional Craniofacial Anthropometric Data Acquisition
JP2005074136A (ja) 顔形状のモデリング方法及び顔形状モデリング用プログラム
RU2508068C1 (ru) Способ создания трехмерного дизайн-проекта краевого пародонта
WO2023203385A1 (en) Systems, methods, and devices for facial and oral static and dynamic analysis

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11721071

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2011721071

Country of ref document: EP