CN106339169A - 用于纹理引擎的系统和方法 - Google Patents
用于纹理引擎的系统和方法 Download PDFInfo
- Publication number
- CN106339169A CN106339169A CN201610662488.3A CN201610662488A CN106339169A CN 106339169 A CN106339169 A CN 106339169A CN 201610662488 A CN201610662488 A CN 201610662488A CN 106339169 A CN106339169 A CN 106339169A
- Authority
- CN
- China
- Prior art keywords
- haptic effect
- processor
- signal
- actuator
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000000694 effects Effects 0.000 claims abstract description 180
- 238000004891 communication Methods 0.000 claims abstract description 10
- 239000004576 sand Substances 0.000 claims description 19
- 239000011449 brick Substances 0.000 claims description 9
- 239000012634 fragment Substances 0.000 claims description 9
- 230000002452 interceptive effect Effects 0.000 claims description 5
- 239000012190 activator Substances 0.000 claims description 4
- 229920001746 electroactive polymer Polymers 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 24
- 239000011435 rock Substances 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 11
- 230000035807 sensation Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 238000013507 mapping Methods 0.000 description 9
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 8
- 239000010985 leather Substances 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 244000025254 Cannabis sativa Species 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 239000002023 wood Substances 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 239000004570 mortar (masonry) Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 208000037656 Respiratory Sounds Diseases 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000005611 electricity Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001788 irregular Effects 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 239000000758 substrate Substances 0.000 description 3
- 208000031481 Pathologic Constriction Diseases 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000036461 convulsion Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 235000013379 molasses Nutrition 0.000 description 2
- 230000010355 oscillation Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- -1 skin Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 210000001215 vagina Anatomy 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000003921 oil Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000005501 phase interface Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000002002 slurry Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000004544 sputter deposition Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B06—GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS IN GENERAL
- B06B—METHODS OR APPARATUS FOR GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS OF INFRASONIC, SONIC, OR ULTRASONIC FREQUENCY, e.g. FOR PERFORMING MECHANICAL WORK IN GENERAL
- B06B1/00—Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency
- B06B1/02—Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy
- B06B1/06—Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy operating with piezoelectric effect or with electrostriction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1601—Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1643—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02N—ELECTRIC MACHINES NOT OTHERWISE PROVIDED FOR
- H02N2/00—Electric machines in general using piezoelectric effect, electrostriction or magnetostriction
- H02N2/02—Electric machines in general using piezoelectric effect, electrostriction or magnetostriction producing linear motion, e.g. actuators; Linear positioners ; Linear motors
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02N—ELECTRIC MACHINES NOT OTHERWISE PROVIDED FOR
- H02N2/00—Electric machines in general using piezoelectric effect, electrostriction or magnetostriction
- H02N2/02—Electric machines in general using piezoelectric effect, electrostriction or magnetostriction producing linear motion, e.g. actuators; Linear positioners ; Linear motors
- H02N2/06—Drive circuits; Control arrangements or methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/014—Force feedback applied to GUI
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B6/00—Tactile signalling systems, e.g. personal calling systems
Abstract
公开了用于纹理引擎的系统和方法。例如,一种公开的系统包括:处理器,该处理器被配置成接收包括多个像素的显示信号,确定包括纹理的触觉效果,以及将与该触觉效果相关联的触觉信号传送至与处理器通信的致动器;致动器,该致动器被配置成接收触觉信号并输出触觉效果。
Description
本申请是申请日为2010年3月11日、国际申请号为PCT/US2010/026909、中国国家申请号为201080011743.9、发明名称为“用于纹理引擎的系统和方法”的中国专利申请的分案申请
相关申请的交叉引用
本专利申请要求于2009年3月12日提交的标题为“Locating Features Using aFriction Display”的美国临时专利申请No.61/159,482的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2009年11月17日提交的标题为“System and Method forIncreasing Haptic Bandwidth in an Electronic Device”的美国临时专利申请No.61/262,041的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2009年11月17日提交的标题为“Friction Rotary Device forHaptic Feedback”的美国临时专利申请No.61/262,038的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2010年1月29日提交的标题为“Systems And Methods ForProviding Features In A Friction Display”的美国实用新型专利申请No.12/696,893的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2010年1月29日提交的标题为“Systems And Methods ForFriction Displays And Additional Haptic Effects”的美国实用新型专利申请No.12/696,900的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2010年1月29日提交的标题为“Systems And Methods ForInterfaces Featuring Surface-Based Haptic Effects”的美国实用新型专利申请No.12/696,908的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2010年1月29日提交的标题为“Systems And Methods For ATexture Engine”的美国实用新型专利申请No.12/697,010的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2010年1月29日提交的标题为“Systems And Methods ForUsing Textures In Graphical User Interface Widgets”的美国实用专利申请No.12/697,037的优先权,通过引用的方式将其全部内容合并于此。
本专利申请要求于2010年1月29日提交的标题为“Systems And Methods ForUsing Multiple Actuators To Realize Textures”的美国实用新型专利申请No.12/697,042的优先权,通过引用的方式将其全部内容合并于此。
技术领域
本发明总体上涉及触觉反馈,并且更具体地涉及用于纹理引擎的系统和方法。
背景技术
在过去几年中,所有类型的手持设备的使用都成指数增长。这些设备被用作便携式组织器、电话、音乐播放器、以及游戏系统。多种现代手持设备现在都结合某种类型的触觉反馈。随着触觉技术改进,设备可以结合模仿纹理的触觉反馈。因此,需要触觉纹理引擎。
发明内容
本发明的实施例提供了用于纹理引擎的系统和方法。例如,在一个实施例中,用于纹理引擎的系统包括:处理器,该处理器被配置成接收包括多个像素的显示信号,确定包括纹理的触觉效果,以及将与触觉效果相关联的触觉信号传送至与处理器通信的致动器,该致动器被配置成接收触觉信号并且输出触觉效果。
该说明性实施例被提及以不限制或限定本发明,而是提供帮助理解本发明的示例。说明性实施例在具体实施方式中论述,其提供本发明的进一步描述。由本发明的多种实施例提供的优点可以通过检查本说明书进一步理解。
附图说明
当参考附图阅读以下具体实施方式时,将更好地理解本发明的这些和其他特征、方面以及优点,在附图中:
图1是根据本发明的一个实施例的用于纹理引擎的系统的框图;
图2是根据本发明的一个实施例的用于纹理引擎的系统的图示;
图3a是根据本发明的一个实施例的用于纹理引擎的系统的图示;
图3b是根据本发明的一个实施例的用于纹理引擎的系统的图示;
图4是根据本发明的一个实施例的用于纹理引擎的方法的流程图;
图5a是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的图示;
图5b是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的另一图示;
图5c是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的另一图示;
图5d是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的另一图示;
图5e是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的另一图示;
图5f是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的另一图示;
图5g是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的另一图示;以及
图5h是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的另一图示。
具体实施方式
本发明的实施例提供用于纹理引擎的系统和方法。
纹理引擎的说明性实施例
本发明的一个说明性实施例包括消息发送设备,诸如移动电话。在说明性实施例中,消息发送设备包括装配有Immersion公司的3000、4000、或5000振动触觉反馈系统(先前已知为Immersion公司的振动触觉反馈系统)的三星触摸电话(SCH-W420)。在其他实施例中,可以利用不同消息发送设备和触觉反馈系统。
说明性消息发送设备包括显示器、扬声器、网络接口、存储器、以及与这些元件中的每个通信的处理器。说明性消息发送设备还包括触摸敏感接口界面和致动器,两者均与处理器通信。触摸敏感界面被配置成感测用户与消息发送设备的交互,并且致动器被配置成输出触觉效果。说明性消息发送设备可以进一步包括:操纵机构(manipulandum),该操纵机构被配置成检测用户交互并且将与用户交互相关联的界面信号传送至处理器。
在说明性消息发送设备中,显示器被配置成将图形用户界面显示给用户。图形用户界面可以包括虚拟对象,例如,图标、按钮、或虚拟键盘。说明性消息发送设备进一步包括触摸敏感界面,诸如,触摸屏,其被装配在显示器的顶部上。触摸敏感界面允许用户与在图形用户界面中显示的虚拟对象交互。例如,在一个实施例中,图形用户界面可以包括虚拟键盘,并且在这样的实施例中,触摸敏感界面允许用户触摸虚拟键盘上的键,以输入与键相关联的字母数字字符。该功能可以被用于键入消息,或者另外与图形用户界面中的对象交互。
在说明性消息发送设备中,处理器被配置成确定触觉效果并且将与触觉效果相对应的触觉信号传送至被配置成输出触觉效果的致动器。在说明性消息发送设备中,该触觉效果模仿用户在触摸敏感界面的表面上感觉到的纹理。所模仿的纹理可以与显示器上示出的用户界面相关联。例如,显示器可以示出包括岩石的形状的图标。在这样的实施例中,处理器可以确定被配置成模仿在触摸敏感界面的表面上的岩石的纹理的触觉效果。然后,处理器将触觉信号传送至被配置成输出触觉效果的致动器。当致动器接收到触觉信号时,其将以被配置成使触摸敏感界面的表面接近岩石的纹理的频率来输出诸如振动的触觉效果。
在说明性实施例中,处理器可以实现触觉映射(haptic map),以确定触觉效果。例如,在说明性实施例中,处理器可以接收包括多个像素的显示信号,每个像素均与颜色相关联。例如,在说明性实施例中,显示信号中的每个像素都可以与红、绿或蓝颜色相关联,并且其可以进一步与用于每种颜色的强度相关联。在说明性实施例中,处理器将触觉值分配给每种颜色,并且进一步分配与每种颜色的强度相关联的触觉强度。然后,处理器将包括触觉值和触觉强度的触觉信号传送至被配置成输出触觉效果的致动器。
在说明性实施例中,处理器可以进一步基于外部触发来确定触觉效果。例如,在说明性实施例中,处理器被配置成从被配置成检测用户交互的触摸敏感界面接收界面信号。然后,在说明性实施例中,处理器将至少部分地基于界面信号来确定触觉效果。例如,处理器可以至少部分地基于界面信号来修改触觉值或触觉强度。在说明性实施例中,如果触摸敏感界面检测到高速或高压用户交互,则处理器将确定较高强度的触觉效果。
说明性消息发送设备可以输出触觉效果用于多种目的。例如,在一个实施例中,触觉效果可以充当处理器已经接收到与用户交互相关联的界面信号的确认。例如,图形用户界面可以包括按钮,并且触摸敏感界面可以检测与按压按钮相关联的用户交互,并且将界面信号传送至处理器。作为响应,处理器可以确定触觉效果,以确认接收界面信号。在这样的实施例中,触觉效果可能使用户感觉到在触摸敏感界面的表面上的纹理。在说明性实施例中,处理器可以进一步确定触觉效果用于其它目的。例如,说明性消息发送设备可以输出纹理,以警告用户在显示器的边界上或者作为对诸如显示器的表面上的图标的对象的标识(identification)。
该说明性示例被给出,以给读者介绍在此论述的一般主题。本发明不限于该示例。以下部分描述了用于纹理引擎的系统和方法的多种附加非限制性实施例和示例。
用于纹理引擎的说明性系统
现在参考附图,其中,相同的数字贯穿多个附图表示相同的元件,图1是根据本发明的一个实施例的用于纹理引擎的系统的框图。如图1所示,系统100包括消息发送设备102,诸如移动电话、便携式数字助理(PDA)、便携式多媒体播放器、便携式计算机、便携式游戏设备、或某种其他移动设备。在一些实施例中,消息发送设备102可以包括膝上型电脑、写字板、桌上型PC、或其他类似设备。在还有的其他实施例中,消息发送设备可以包括用于与PC或某种其他设备一起使用的外部监视器。消息发送设备102包括与网络接口112通信的处理器110、触摸敏感界面114、显示器116、致动器118、扬声器120、以及存储器122。
处理器110被配置成执行在存储器122中存储的计算机可执行程序指令。例如,处理器110可以执行用于消息发送或用于生成触觉反馈的一个或多个计算机程序。处理器110可以包括微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、一个或多个现场可编程门阵列(FPGA)、或状态机。处理器110可以进一步包括可编程电子器件,诸如可编程逻辑控制器(PLC)、可编程中断控制器(PIC)、可编程逻辑器件(PLD)、可编程只读存储器(PROM)、电可编程只读存储器(EPROM或EEPROM)、或其他类似设备。
存储器122包括存储指令的计算机可读介质,当由处理器110执行指令时,使处理器110执行多个步骤,诸如在此描述的那些。计算机可读介质的实施例可以包括但不限于电子、光学、磁性或其他储存器或者能够向处理器110提供计算机可读指令的传送设备。介质的其他示例包括但不限于软盘、CD-ROM、磁盘、存储芯片、ROM、RAM、ASIC、配置的处理器、所有光学介质、所有磁带或其他磁性介质、或计算机处理器可以从其读取的任何其他介质。另外,多种其他设备可以包括计算机可读介质,诸如路由器、专用或公共网络、或其他传送设备。处理器110和描述的处理可以是一个或多个指令,并且可以遍及一个或多个结构散布。
处理器110与网络接口112通信。网络接口112可以包括一种或多种移动通信的方法,诸如红外、无线电、Wi-Fi、或蜂窝网络通信。在其他变体中,网络接口112包括有线网络接口,诸如以太网。消息发送设备102可以被配置成在诸如蜂窝网络和/或互联网的网络上与其他设备(未示出)交换消息或虚拟消息对象。在设备之间交换的消息的实施例可以包括语音消息、文本消息、数据消息、或其他形式的数字消息。
处理器110还与一个或多个触摸敏感界面114通信。在一些实施例中,触摸敏感界面114可以包括触摸屏或触摸板。例如,在一些实施例中,触摸敏感界面114可以包括装配在被配置成接收显示信号并将图像输出至用户的显示器的顶部上的触摸屏。在其他实施例中,触摸敏感界面114可以包括光学传感器或另一种类型的传感器。在一个实施例中,触摸敏感界面可以包括LED检测器。例如,在一个实施例中,触摸敏感界面114可以包括装配在显示器116的侧面上的LED手指检测器。在一些实施例中,处理器与单个触摸敏感界面114通信,在其他实施例中,处理器与多个触摸敏感界面通信,例如,第一触摸屏和第二触摸屏。触摸敏感界面114被配置成检测用户交互,并且基于用户交互将信号传送至处理器110。在一些实施例中,触摸敏感界面114可以被配置成检测用户交互的多个方面。例如,触摸敏感界面114可以检测用户交互的速度和压力,并且将该信息合并到界面信号中。
在图1中所示的实施例中,处理器110还与显示器116通信。处理器110可以被配置成生成要在显示器116上示出的用户界面的图形表示,然后将包括该图形表示的显示信号传送至显示器116。在其他实施例中,显示器116被配置成从另一设备接收显示信号。例如,在一些实施例中,显示器116可以包括外部显示器,诸如计算机监视器。显示器116被配置成接收显示信号并且输出与该显示信号相关联的图像。在一些实施例中,显示信号可以包括视频图形阵列(vga)、高清晰度多媒体接口(hdmi)、高级视频图形阵列(svga)、视频、二分量视频(s-video)、或本领域中已知的其他类型的显示信号。在一些实施例中,显示器116包括平板屏幕显示器,诸如液晶显示器(LCD)或等离子体屏幕显示器。在其他实施例中,显示器116包括阴极射线管(CRT)或本领域中已知的其他类型的显示器。在还有的其他实施例中,显示器116可以包括触摸敏感界面114,例如,显示器116可以包括触摸屏LCD。在还有的其他实施例中,显示器116可以包括柔性屏幕或柔性显示器。例如,在一些实施例中,显示器116可以包括装配在其表面之下的触觉基板。在这样的实施例中,显示器116由柔性材料制成,并且响应于从处理器110接收到的信号,触觉基板弯曲,在显示器116的表面上形成桥、槽、或其他特征。在一些实施例中,触觉基板可以包括等离子体致动器、压电致动器、电活性聚合物、微机电系统、形状记忆合金、充液或充气单元的栅格。
在一些实施例中,处理器110从触摸敏感界面114接收同与在显示器116上示出的图形用户界面的交互相关联的信号。例如,在一个实施例中,触摸敏感界面114可以包括触摸屏,并且显示器116上的图形用户界面可以包括虚拟键盘。在这样的实施例中,当用户与覆盖虚拟键盘的键之一的触摸屏的一部分交互时,触摸屏将与该用户交互相对应的界面信号发送至处理器110。基于该界面信号,处理器110将确定用户按压了虚拟键盘上的一个键。该功能性允许用户与显示器116上的其他图标和虚拟对象交互。例如,在一些实施例中,用户可以轻触触摸屏,以移动虚拟球状物或旋转虚拟旋钮。
如图1所示,处理器110还与致动系统通信,该致动系统包括一个或多个致动器118、用于每个致动器的悬挂系统、以及用于每个致动器的电功率和控制布线。在一些实施例中,消息发送设备102包括多于一个致动系统。处理器110被配置成确定触觉效果,并且将与该触觉效果相对应的触觉信号传送至致动器118。在一些实施例中,触觉效果包括在显示器116的表面、触摸敏感界面114、或消息发送设备102的壳体上感受到的振动触觉纹理。在一些实施例中,确定触觉效果可以包括执行一系列计算。在其他实施例中,确定触觉效果可以包括访问查找表。在还有的其他实施例中,确定触觉效果可以包括查找表和算法的组合。
在一些实施例中,确定触觉效果可以包括触觉映射。在这样的实施例中,确定触觉效果可以包括将显示信号映射至致动器。例如,显示信号可以包括多个像素,每个像素都与颜色相关联。在这样的实施例中,每个像素都可以与红、绿、或蓝颜色相关联;每种颜色都可以进一步与强度相关联,例如,强度1-8。在这样的实施例中,确定触觉效果可以包括将触觉效果分配给每种颜色。在一些实施例中,触觉效果可以包括操作的方向和强度,例如,在一个实施例中,触觉信号可以被配置成使旋转致动器以一半功率顺时针方向旋转。在一些实施例中,操作的强度可以与颜色的强度相关联。一旦处理器110确定触觉效果,则它就传送包括该触觉效果的触觉信号。在一些实施例中,处理器110可以将触觉效果仅分配给显示信号中的一些像素。例如,在这样的实施例中,触觉效果可以仅与显示信号的一部分相关联。
在一些实施例中,处理器110可以利用触觉映射来确定触觉效果,并且然后将显示信号输出至显示器116。在其他实施例中,处理器110可以使用触觉映射来确定触觉效果,并且然后不将显示信号传送至显示器116。在这样的实施例中,显示器116可以保持黑暗或关闭,同时致动器118输出触觉效果。例如,在这样的实施例中,处理器110可以从与消息发送设备102相关联的数字相机接收显示信号。在一些实施例中,为了保存电池电力,用户可以去禁用显示器116。在这样的实施例中,处理器可以利用触觉映射来向用户提供模仿显示器的表面上的纹理的触觉效果。该纹理可以用于当相机聚焦或者当某个其他事件发生时警告用户。例如,处理器110可以使用面部识别软件来确定模仿在显示器116上的多个位置处的纹理的触觉效果,其中,如果显示器116被激活,则所述纹理将与脸部相关联。
在一些实施例中,处理器110可以至少部分地基于用户交互或触发来确定触觉效果。在这样的实施例中,处理器110从触摸敏感界面114接收界面信号,并且至少部分地基于界面信号来确定触觉效果。例如,在一些实施例中,处理器110可以基于由触摸敏感界面114检测到的用户交互的位置来确定触觉效果。例如,在这样的实施例中,处理器110可以确定模仿用户在显示器116上触摸的虚拟对象的纹理的触觉效果。在其他实施例中,处理器110可以至少部分地基于界面信号来确定触觉效果的强度。例如,如果触摸敏感界面114检测到高压力用户交互,则处理器110可以确定高强度触觉效果。在另一实施例中,如果触摸敏感界面114检测到低压力用户交互,则处理器110可以确定低强度触觉效果。在还有的其他实施例中,处理器110可以至少部分地基于用户交互的速度来确定触觉效果的强度。例如,在一个实施例中,当触摸敏感界面114检测到低速度用户交互时,处理器110可以确定低强度触觉效果。在还有的其他实施例中,处理器110可以确定没有触觉效果,除非其从触摸敏感界面114接收到与用户交互相关联的界面信号。
一旦处理器110确定触觉效果,则它就将与触觉效果相关联的触觉信号传送至致动器118。致动器118被配置成从处理器110接收触觉信号,并且生成触觉效果。致动器118可以例如是压电致动器、电动机、电磁致动器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心转动惯量电动机(ERM)、或线性谐振致动器(LRA)。在一些实施例中,致动器118可以包括多个致动器,例如,ERM和LRA。
在本发明的一个实施例中,由致动器118生成的触觉效果被配置成模仿用户在触摸敏感界面114或显示器116的表面上感觉到的纹理。该纹理可以与在显示器116上示出的图形用户界面相关联。例如,显示器116可以示出包括岩石的形状的图标。在这样的实施例中,处理器110可以确定被配置成模仿在触摸敏感界面114的表面上的岩石的纹理的触觉效果。然后,处理器110将与触觉效果相关联的触觉信号传送至致动器118,其输出触觉效果。例如,当致动器118接收到触觉信号时,其可以以被配置成使触摸敏感界面的表面包括岩石的纹理的频率来输出振动。在其他实施例中,致动器118可以被配置成以使显示器116或触摸敏感界面114的表面包括以下的纹理的频率来输出振动:水、冰、皮革、沙子、砂砾、雪、皮肤、毛皮、或某种其他表面。在一些实施例中,触觉效果可以被输出到消息发送设备102的不同部分上,例如,输出到其壳体上。在一些实施例中,致动器118可以输出被配置成同时输出多种纹理的大量振动。例如,致动器118可以输出被配置成使显示器116的表面包括沙子的纹理的振动。在这样的实施例中,致动器118可以被配置成输出附加振动,其被配置成使用户感觉到沙子中的岩石的纹理。
处理器110可以为多种原因来确定触觉效果。例如,在一些实施例中,处理器110可以输出与在显示器116上示出的对象的纹理相对应的触觉效果。在这样的实施例中,显示器可以示出多个对象,并且当用户将他/她的手指从对象移动到对象时,处理器可以确定不同触觉效果,从而模仿用于每个对象的不同纹理。在一些实施例中,触觉效果可以充当处理器110已经接收到与用户交互相关联的信号的确认。例如,在一个实施例中,图形用户界面可以包括按钮,并且触摸敏感界面114可以检测与按压按钮相关联的用户交互。当触摸敏感界面114将与用户交互相关联的界面信号传送至处理器110时,处理器110可以确定触觉效果,以确认界面信号的接收。在这样的实施例中,触觉效果可以使用户感觉到在触摸敏感界面114的表面上的纹理。例如,处理器可以输出模仿沙子的纹理的触觉效果,以确认处理器110已经接收到用户输入。在其他实施例中,处理器可以确定不同纹理,例如,水、冰、油、岩石或皮肤的纹理。在一些实施例中,触觉效果可以用于不同目的,例如,警告用户在显示器116的边界上,或者向用户提供关于显示器116上的图像的触觉信息。例如,在一些实施例中,显示器116上的每个图标都可以包括不同纹理,并且当用户将他/她的手指从一个图标移动到另一图标时,处理器将确定模仿每个图标的纹理的触觉效果。在进一步实施例中,当用户的手指从与图标的接触移动到与显示器的背景的接触时,处理器可以改变纹理,从而警告用户他/她不再触摸图标。
如图1所示,处理器110还与扬声器120通信。扬声器120被配置成从处理器110接收音频信号,并且将它们输出至用户。在一些实施例中,音频信号可以与由致动器118输出的触觉效果或由显示器116输出的图像相关联。在其他实施例中,音频信号可以不对应于该触觉效果或图像。
在一些实施例中,处理器110可以进一步包括一个或多个传感器,例如,GPS传感器、成像传感器、加速计、位置传感器、旋转速度传感器、光传感器、相机、麦克风、或某种其他类型的传感器。传感器可以被配置成检测加速度、倾斜度、惯性或位置的改变。例如,消息发送设备102可以包括被配置成测量消息发送设备的加速度的加速计。传感器被配置成将传感器信号传送至处理器110。
传感器信号可以包括与消息发送设备102的位置、运动、加速度、或“跃度(jerk)”(即,加速度的导数)相关联的一个或多个参数。例如,在一个实施例中,传感器可以生成并且传送包括多个参数的传感器信号,每个参数都与沿着或者关于测量的平移或旋转轴的运动相关联。在一些实施例中,传感器输出处理器110被编程为解释用于指示沿着一个或多个轴的运动的电压或电流。
在一些实施例中,处理器110将接收传感器信号并且确定其应当激活虚拟工作空间,并且将感测到的消息发送设备102在X、Y或Z方向上的运动解释为对应于虚拟工作空间“内”的虚拟运动。然后,用户可以在虚拟工作空间内移动设备102,以通过在虚拟空间内作手势来选择功能或文件。例如,通过在Z轴上移动消息发送设备102来选出虚拟工作空间内的功能。在一些实施例中,用户可以在虚拟工作空间内使用手势来修改由消息发送设备102输出的触觉效果。
图2是根据本发明的一个实施例的用于纹理引擎的系统的图示。图2包括消息发送设备200,诸如移动电话、PDA、便携式媒体播放器、便携式游戏设备、或移动计算机。消息发送设备200被配置成在诸如蜂窝网络或互联网的网络上发送和接收诸如语音邮件、文本消息、以及其他数据消息的信号。消息发送设备200可以包括无线网络接口和/或有线网络接口(图2中未示出)。虽然设备200在图2中被图示为手持消息发送设备,但是其他实施例可以包括不同设备,诸如视频游戏系统和/或个人计算机。
如图2所示,消息发送设备200包括壳体202和显示器216。在一些实施例中,显示器216可以包括LCD显示器。在其他实施例中,显示器216可以包括等离子体显示器、或本领域中已知的其他类型的显示器。显示器216被配置成接收显示信号并且输出与该显示信号相关联的图像。在一些实施例中,显示信号可以包括视频图形阵列(vga)、高清晰度多媒体接口(hdmi)、高级视频图形阵列(svga)、视频、二分量视频(s-video)、或本领域中已知的其他类型的显示信号。在图2中所示的实施例中,显示器216包括有纹理的球状物204。显示器216进一步包括纹理选择图标206,其包括岩石、沙子和水的纹理。
还参考图2,消息发送设备200进一步包括操纵机构214。在图2中所示的实施例中,操纵机构214包括滚动球和按钮。消息发送设备200还包括触摸敏感界面218。在图2中所示的实施例中,触摸敏感界面218包括位于显示器216的顶部上的触摸屏。在一些实施例中,显示器216和触摸屏可以包括单个集成组件,诸如触摸屏显示器。
操纵机构214和触摸敏感界面218被配置成检测用户交互,并且将与用户交互相对应的界面信号传送至处理器。在一些实施例中,用户交互与在显示器216上示出的图形用户界面相关联。在这样的实施例中,处理器接收界面信号,并且至少部分地基于该界面信号来操纵图形用户界面。例如,在图2中所示的实施例中,用户可以使用操纵机构214或触摸敏感界面218来选择纹理选择图标206中的一个。一旦用户已经选择了用于有纹理的球状物204的纹理,则其在屏幕上的外观就可以改变为对应于该纹理。例如,如果用户选择了沙子纹理图标,则处理器可以操纵显示器,以给有纹理的球状物204沙子表面的外观,并且进一步确定当与有纹理的球状物204交互时使用户感觉到沙子纹理的触觉效果。或者,在另一实施例中,如果用户选择岩石纹理图标,则处理器可以确定当用户与有纹理的球状物204交互时使用户感觉到岩石纹理的触觉效果。
消息发送设备200进一步包括被配置成接收触觉信号并输出触觉效果的致动器(图2中未示出)。在一些实施例中,触觉效果包括由消息发送设备200的用户感觉到的振动触觉纹理。处理器110被配置成确定触觉效果,并且将与该触觉效果相对应的触觉信号传送至致动器。在一些实施例中,确定触觉效果可以包括一系列计算,以确定触觉效果。在其他实施例中,确定触觉效果可以包括访问查找表,以确定合适的触觉效果。在还有的其他实施例中,确定触觉效果可以包括使用查找表和算法的组合。一旦处理器110确定触觉效果,则其将与该触觉效果相关联的触觉信号传送至致动器。致动器从处理器110接收触觉信号,并且生成触觉效果。用户可以经由显示器216的表面或者通过消息发送设备200的某个其他部分(例如,经由操纵机构214或壳体202)来感觉触觉效果。在一些实施例中,当用户将他/她的手指在有纹理的球状物204的表面之上移动时,处理器可以修改该触觉效果,以模仿纹理的改变。
用于纹理引擎的系统的说明
图3a是根据本发明的一个实施例的用于纹理引擎的系统的图示。图3a包括消息发送设备300,诸如移动电话、PDA、便携式媒体播放器、便携式游戏设备、或移动计算机。消息发送设备300被配置成在诸如蜂窝网络或互联网的网络上发送和接收包括消息的信号,诸如语音邮件、文本消息的消息和其他数据消息。消息发送设备300可以包括无线网络界面和/或有线网络界面(图3a中未示出)。虽然设备300在图3a中被图示为手持消息发送设备,但是其他实施例可以包括不同设备,诸如视频游戏系统和/或个人计算机。
如图3a所示,消息发送设备300包括显示器316。显示器316被配置成接收显示信号,并且至少部分地基于该显示信号来输出图像。消息发送设备300进一步包括处理器(图3a中未示出),该处理器被配置成将显示信号传送至显示器316。消息发送设备300进一步包括装配在显示器316的顶部上的触摸敏感界面314。触摸敏感界面314被配置成检测用户交互,并且将与该用户交互相对应的界面信号传送至处理器。显示器316包括两个图标302和304。当用户与图标302和304中的一个交互时,触摸敏感界面314将检测用户交互,并且将相应界面信号传送至处理器。基于该界面信号,处理器可以确定用户已经打开了链接至图标之一的文件或者执行了本领域中已知的某个其他动作。
如图3a中所示,图标302和304中的每个都包括纹理。在所示的实施例中,图标302包括砖块的纹理,并且图标304包括岩石的纹理。在其他实施例中,可以使用不同纹理,例如,沙子、水、油、草、皮毛、皮肤、皮革、冰、木头、或本领域中已知的某种其他纹理的纹理。当用户同显示器316与每个图标相关联的部分交互时,如图3a中手指306所示,处理器将确定被配置成模仿该图标的纹理的触觉效果。然后,处理器将与该触觉效果相关联的信号输出至被配置成输出触觉效果的致动器(图3a中未示出)。例如,在图3a中所示的实施例中,当用户同显示器316与图标302相关联的部分交互时,处理器将确定与砖块的纹理相关联的触觉效果。该触觉效果可以通过当用户的手指306跨过灰浆(mortar)移动时高功率脉冲介入(punctuate)的随机信号来表征。在其他实施例中,其他触觉效果将被用于模仿可以与在显示器316上示出的图像相对应的不同纹理。
图3b是根据本发明的一个实施例的用于纹理引擎的系统的图示。在图3b中所示的实施例中,确定触觉效果包括:将显示信号映射至致动器。图3b中所示的实施例包括显示器350的放大部分。显示器350被配置成从处理器接收显示信号。显示信号包括多个像素,每个像素均与颜色和该颜色的强度相关联。显示器350接收该显示信号,并且输出与该显示信号相关联的图像。在图3b中所示的实施例中,显示器350的放大部分包括六个像素:351、352、353、354、355和356。每个像素都与颜色和在1-10的范围内的颜色的强度相关联。例如,像素355与绿颜色相关联,并且颜色强度是10中的3。因此,显示器350将在像素355的位置以强度3输出绿颜色。
在图3b中所示的实施例中,处理器将至少部分地基于显示信号和从装配在显示器350(图3b中未示出)的顶部上的触摸敏感界面接收到的界面信号来确定触觉效果。例如,在图3b中所示的实施例中,处理器使用显示信号来使触觉效果与每个像素相关联或者“映射”触觉效果与每个像素。例如,在图3b中所示的实施例中,处理器可以确定用于每种颜色的不同频率触觉效果。处理器可以进一步使在每个像素处的触觉效果的强度与在每个像素处的颜色的强度相关联。例如,处理器可以确定具有颜色强度8的像素还将具有触觉强度8。当处理器接收到与在显示器的像素的顶部上的用户交互相关联的界面信号时,处理器将输出与用户正在交互的像素相关联的触觉信号。该触觉效果被配置成使用户感觉到在显示器的表面上的纹理。
例如,在图3b中所示的实施例中,处理器可以确定蓝色像素与敲击触觉效果相关联,红色像素与脉冲振动相关联,以及绿色像素与点击触觉效果相关。在这样的实施例中,当触摸敏感界面检测到用户的手指已经在像素351上经过时,处理器将确定具有强度1的敲击。然后,当用户的手指在像素352上移动时,处理器将确定具有强度5的脉冲振动。并且,当用户的手指继续在显示器350上移动至像素353时,处理器可以确定具有强度3的点击效果。
当用户在显示器350的表面上移动他/她的手指时,这些触觉效果被配置成使用户感觉到在显示器350的表面上的纹理。在一些实施例中,处理器可以与多于一个致动器通信,并且每种颜色都可以与其自己的致动器相关联。在其他实施例中,颜色、强度、以及触觉效果的不同组合可以用于使用户感觉到显示器的表面上的纹理。
图4是根据本发明的一个实施例的用于纹理引擎的方法的流程图,关于图1中所示的设备对其进行论述。如图4中所示,当处理器110接收到包括多个像素402的显示信号时,方法400开始。显示信号可以包括视频图形阵列(vga)、高清晰度多媒体接口(hdmi)、高级视频图形阵列(svga)、视频、二分量视频(s-video)、或本领域中已知的其他类型的显示信号。显示信号可以包括图形用户界面或者消息发送设备将经由显示器116向用户显示的其他图像。
然后,触摸敏感界面114将界面信号传送至处理器110,其接收界面信号404。在一些实施例中,触摸敏感界面114可以包括触摸屏或者触摸板。例如,在一些实施例中,触摸敏感界面114可以包括装配在被配置成接收显示信号并将图像输出至用户的显示器的顶部上的触摸屏。在其他实施例中,触摸敏感界面可以包括按钮、开关、滚轮、滚动球、或本领域中已知的某种其他类型的物理设备接口。在一些实施例中,处理器110与单个触摸敏感界面114通信。在其他实施例中,处理器110与多个触摸敏感界面114通信,例如,触摸屏和滚动球。触摸敏感界面114被配置成检测用户交互,并且至少部分地基于该用户交互将信号传送至处理器。在一些实施例中,触摸敏感界面114可以被配置成检测用户交互的多个方面。例如,触摸敏感界面114可以检测用户交互的速度和压力,并且将该信息合并到界面信号中。
接下来,处理器110确定包括纹理406的触觉效果。该触觉效果可以包括用户可以通过触摸敏感界面或操纵机构的表面感觉到的振动。在一些实施例中,该振动可以使用户感觉到在触摸敏感界面的表面上的纹理。例如,皮革、雪、沙子、冰、皮肤、或某种其他表面的纹理。在一些实施例中,确定触觉效果可以包括确定触觉效果的一系列计算。在其他实施例中,确定触觉效果可以包括访问查找表以确定合适的触觉效果。在还有的其他实施例中,确定触觉效果可以包括查找表和算法的组合。
在一些实施例中,确定触觉效果可以包括触觉映射。在这样的实施例中,确定触觉效果可以包括将显示信号映射至致动器。例如,显示信号可以包括多个像素,每个像素均与颜色相关联。在这样的实施例中,确定触觉效果可以包括将触觉效果分配给每种颜色。然后,处理器110将输出包括该触觉效果的触觉信号。在一些实施例中,处理器110可以将触觉效果仅分配给显示信号中的一些像素。例如,在这样的实施例中,触觉效果可以仅与显示信号的一部分相关联。
在一些实施例中,处理器110可以至少部分地基于用户交互或触发来确定触觉效果。在这样的实施例中,处理器110从触摸敏感界面114接收界面信号,并且至少部分地基于该界面信号来确定触觉效果。例如,在一些实施例中,处理器110可以基于从触摸敏感界面114接收到的界面信号来确定不同强度的触觉效果。例如,如果触摸敏感界面114检测到高压力用户交互,则处理器110可以确定高强度触觉效果。在另一实施例中,如果触摸敏感界面114检测到低压力用户交互,则处理器110可以确定低强度触觉效果。在还有的其他实施例中,当触摸敏感界面114检测到低速度用户交互时,处理器110可以确定低强度触觉效果。而且,当触摸敏感界面114检测到高速度用户交互时,处理器110可以确定高强度触觉效果。在还有的其他实施例中,处理器110可以确定没有触觉效果,除非其从触摸敏感界面114接收到包括用户交互的界面信号。
最后,处理器110将与触觉效果相关联的触觉信号发送至致动器118,其被配置成接收触觉信号并且输出触觉效果408。致动器118被配置成从处理器110接收触觉信号,并且生成触觉效果。致动器118可以是例如压电致动器、电动机、电磁致动器、音圈、线性谐振致动器、形状记忆合金、电活性聚合物、螺线管、偏心转动惯量电动机(ERM)、或线性谐振致动器(LRA)。
图5a是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的图示。图5a中所示的实施例包括砖块。砖块的纹理通过具有来自砖块的粗糙不规则纹理、介入来自灰浆的砂质凹部感觉来表征。在用户的手指移动的同时,用于纹理引擎的系统可以通过用介质达到高最大方差的随机信号驱动诸如LRA、LPA或FPA的致动器来生成砖块的粗糙不规则纹理。在一些实施例中,该方差可以被调节用于不同粗糙度。在一些实施例中,从砖块到灰浆的过渡可以通过由ERM创建的高持续时间弹出(high duration pop)来提供。另外,如果灰浆足够厚,则可以通过用具有比用于驱动输出砖块的纹理的致动器更高的方差的较低幅度信号驱动致动器来提供精细纹理。
图5b是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的图示。图5b中所示的实施例包括岩石。岩石的纹理通过当用户从岩石移动到岩石时过渡(transition)介入的光滑表面来表征。为了输出岩石的纹理,诸如FPA的致动器被用于创建低摩擦的斑片。各个岩石可以通过所显示的图像的非虚拟边缘图来提供,并且当触摸敏感界面检测到用户的运动时,将高幅度触觉信号输出至致动器,诸如LPA或ERM。例如,无论何时触摸敏感界面检测到用户的手指正从岩石过渡到岩石,都输出触觉效果。
图5c是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的图示。图5c中所示的实施例包括沙子或沙纸。沙子通过粗糙有砂砾的感觉以及在用户的手指前建立一堆沙粒的感觉来表征。为了输出沙子的粗糙有砂砾的纹理,在用户的手指移动的同时,诸如LRA、LPA或FPA的致动器通过具有高最大方差的随机信号被驱动。在一些实施例中,处理器可以调节信号的方差,以创建不同程度的粗糙度。为了创建沙子堆积的感觉,可以使用诸如FPA的致动器。在这样的实施例中,当用户跨过触摸屏移动他们的手指时,处理器将用信号来驱动致动器,该信号以低强度开始并且随着用户在一个方向上移动他/她的手指逐步加强。
在另一实施例中,图5c中所示的纹理可以包括沙纸。沙纸通过具有粗糙有砂砾的感觉来表征。为了创建粗糙有砂砾的感觉,处理器用具有高最大方差的随机信号来驱动致动器,诸如LRA、LPA或FPA。在一些实施例中,仅当用户的手指正跨过触摸敏感界面的表面移动时,才输出该信号。在一些实施例中,处理器可以调节信号的方差,以改变粗糙度的等级。
图5d是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的图示。在图5c中所示的实施例中,纹理包括草的纹理。草通过几乎使用户的手指觉得痒的周期性轻感觉(periodic light sensation)来表征。为了创建草的感觉,处理器可以用被配置成创建通过多块草地覆盖的低摩擦的斑片的信号来驱动诸如FPA的致动器。在一些实施例中,当用户界面检测到用户交互时,处理器可以通过具有所显示的图像的非虚拟边缘图并且将低幅度信号输出至诸如LPA或ERM的致动器来提供各个草叶。
图5e是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的图示。在图5e中所示的实施例中,纹理包括织物的纹理。织物通过轻平滑感(light smooth sensation)来表征。为了创建织物的纹理的感觉,当用户的手指跨过触摸敏感界面的表面移动时,处理器可以用低幅度高频信号来驱动诸如LPA或LRA的致动器。
图5f是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的图示。在图5f中所示的实施例中,纹理包括水或糖蜜的纹理。水通过几乎没有感觉来表征。然而,扰乱的水可以溅射到周围并且撞击用户的手指。为了模仿水的纹理,处理器可以驱动诸如FPA的致动器以减少在触摸传感器界面的表面上的摩擦。为了模仿水溅射,处理器可以仅当用户正触摸屏幕时才输出触觉信号。为了模仿诸如糖蜜或油的更粘的流体的纹理,当用户的手指跨过触摸敏感界面的表面移动时,处理器可以用被配置成增加用户的手指上的摩擦的信号来驱动致动器。
图5g是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的图示。在图5g中所示的实施例中,纹理包括皮革的纹理。皮革通过包括皮革的表面的凸起和凹部的整体光滑感觉来表征。为了创建皮革的纹理的感觉,处理器可以用被配置成当用户的手指跨过触摸敏感界面的表面移动时输出减小摩擦的触觉效果的信号来驱动诸如FPA的致动器。处理器可以通过在触摸敏感界面检测到用户的手指正在移动时用非常短的低幅度触觉信号驱动致动器来输出裂纹和凸起。
图5g是根据本发明的一个实施例的纹理引擎可以生成的纹理之一的图示。在图5e中所示的实施例中,纹理包括木头的纹理。木头可以通过当用户从木板(board)移动到木板时通过尖锐过渡(sharp transition)介入的不规则崎岖不平纹理来表征。为了创建不规则崎岖不平纹理,处理器可以用所显示的图像的非虚拟边缘图来驱动诸如LRA、LPA、或FPA的致动器,并且当用户的手指正在移动时多次用非常短的低幅度信号来驱动致动器。为了输出从厚木板到厚木板的过渡,处理器可以输出被配置成使致动器生成高幅度短持续时间弹出的触觉信号。
在其他实施例中,可以输出与不同纹理相关联的触觉效果。例如,在一个实施例中,处理器可以传送被配置成使致动器输出被配置成使用户感觉到与冰的纹理相关联的纹理的触觉效果的触觉信号。冰通过低摩擦来表征,在一些实施例中,冰具有完全光滑的纹理。在其他实施例中,冰包括精细低幅度砂质纹理。为了创建冰的纹理,处理器可以确定被配置成使致动器在用户跨过触摸敏感界面的表面移动时尽可能多地减少摩擦的触觉信号。在另一实施例中,处理器可以用被配置成在用户移动他们的手指的同时输出低幅度效果的触觉信号来驱动诸如LPA或LRA的致动器。这些低幅度效果可以与冰的表面上的不完美性或粗砂(grit)相关联。
在另一实施例中,处理器可以用被配置成使致动器输出接近蜥蜴皮肤的纹理的触觉效果的信号来驱动致动器。蜥蜴皮肤通过由从皮肤上的凸起到凸起的过渡介入的整体光滑感觉来表征。为了实现包括蜥蜴皮肤的纹理的触觉效果,处理器可以用被配置成使致动器创建在触摸敏感界面上的低摩擦的斑片的触觉信号来驱动致动器。当触摸敏感界面检测到用户的手指正跨过其表面移动时,处理器可以通过定期性地输出高幅度触觉信号在皮肤的表面上提供裂纹。这些高幅度信号可能接近皮肤的表面中的裂纹。
在又一实施例中,处理器可以用被配置成使致动器输出接近皮毛的纹理的触觉效果的信号来驱动致动器。皮毛通过触摸起来非常柔软的定期性光感觉来表征。为了实现包括皮毛的纹理的触觉效果,处理器可以用被配置成使致动器输出被配置成减少用户在触摸敏感界面的表面上感觉到的摩擦的触觉效果的触觉信号来驱动致动器。当触摸敏感界面检测到用户的运动时,处理器可以进一步提供输出低幅度脉冲触觉信号的各个毛发。
在又一实施例中,处理器可以用被配置成使致动器输出接近金属的纹理的触觉效果的信号来驱动致动器。金属通过光滑低摩擦表面来表征,在一些实施例中,其包括光粗砂(light grit)。为了实现包括金属的纹理的触觉效果,处理器可以用被配置成降低用户在触摸敏感界面的表面上感觉到的摩擦的信号来驱动致动器。在一些实施例中,处理器可以通过当触摸敏感界面检测到用户正在其表面上移动时输出短暂的高幅度触觉信号来提供各个凸起。这些短暂的高幅度信号可以接近金属的表面上的粗砂。
在还有的其他实施例中,处理器可以用被配置成使致动器输出接近另一感觉(例如,热)的触觉效果的信号来驱动致动器。在这样的实施例中,当用户触摸与热相关联的显示器的元件时,处理器可以输出被配置成使致动器输出高频摇动效果的触觉信号。
用于纹理引擎的系统和方法的优点
存在用于纹理引擎的系统和方法的多种优点。例如,纹理引擎的系统和方法将先前未使用的触觉效果添加至移动设备。该新效果为用户提供用于从移动设备接收信息的新途径,而用户不必须注视移动设备的显示器。例如,纹理引擎的系统和方法可以允许用户将不同纹理分配给不同图标、按钮、或他们的显示器的其他组件。因此,用户能够在不必须注视该图标的情况下确定他们正在触摸哪个图标。这可以增加设备的可用性,并且可以使设备对视觉受损更加有用。
而且,因为用于纹理引擎的系统和方法向用户提供了更多信息,而不使用户从其他任务分心,所以其将减少用户错误。例如,如果用户利用用于纹理引擎的系统和方法,则用户将不太可能击中错误图标或者按压错误按键。该功能性可以用于增加用户满意度并且增加对合并用于纹理引擎的系统和方法的技术的采用率。
总体考虑
在此的“适于”或“配置成”的使用意味着不阻止适于或被配置成执行附加任务或步骤的开放式和包含语言。另外,“基于”的使用意味着开放式和包含,这是因为“基于”一个或多个记载的条件或值的处理、步骤、计算或其他动作实际上可以基于超过所记载的那些的附加条件或值。在此包括的标题、列表和编号仅用于更容易地解释,并且不意味着是限制性的。
根据本主题的多个方面的实施例可以在数字电子电路中、在计算机硬件、固件、软件中或者在前述结合中实现。在一个实施例中,计算机可以包括一个或多个处理器。处理器包括或能够对计算机可读介质进行访问,计算机可读介质诸如耦合至处理器的随机存取存储器(RAM)。处理器执行在存储器中存储的计算机可执行程序指令,诸如执行包括传感器采样例程、触觉效果选择例程、以及产生信号以生成上述所选择的触觉效果的合适程序设计的一个或多个计算机程序。
这样的处理器可以包括微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、以及状态机。这样的处理器可以进一步包括可编程电子器件,诸如PLC、可编程中断控制器(PIC)、可编程逻辑器件(PLD)、可编程只读存储器(PROM)、电可编程只读存储器(EPROM或EEPROM)、或其他类似设备。
这样的处理器可以包括或可以与可以存储指令的介质(例如,有形计算机可读介质)通信,当由处理器执行指令时,可以使处理器执行如由处理器执行或辅助的在此所述的步骤。计算机可读介质的实施例可以包括但不限于能够向诸如网络服务器中的处理器的处理器提供计算机可读指令的所有电子、光学、磁性或其他存储设备。介质的其他示例包括但不限于软盘、CD-ROM、磁盘、存储器芯片、ROM、RAM、ASIC、配置的处理器、所有光学介质、所有磁带或其他磁性介质、或计算机处理器可以从其读取的任何其他介质。而且,多种其他设备可以包括计算机可读介质,诸如路由器、专用或公共网络、或其他传输设备。处理器和描述的处理可以是一个或多个指令,并且可以通过一个或多个指令来散布。处理器可以包括用于执行在此所述的一种或多种方法(或方法的多个部分)的代码。
虽然已经关于其特定实施例详细地描述了本主题,但是将理解,本领域技术人员在获得前述理解时可以容易地产生对这样的实施例的替换、变化以及等同物。因此,应当理解,本公开被呈现用于举例而不是限制的目的,并且不排除对本主题的这样的修改、变化和/或添加的包含,这对于本领域普通技术人员来说将很容易是显而易见的。
Claims (23)
1.一种系统,包括:
处理器,所述处理器被配置成:
接收包括多个像素的显示信号;
从触摸敏感界面接收与在所述多个像素中的一组的顶部上的显示器的位置处的用户交互相关联的交互信号;
部分地基于所述多个像素中的所述组以及所述交互信号确定包括纹理的触觉效果;以及
传送与所述触觉效果相关联的触觉信号;
致动器,所述致动器与所述处理器通信,所述致动器被配置成接收所述触觉信号并且输出所述触觉效果,
其中,所述多个像素中的每一个包括颜色和强度,以及其中,所述处理器被配置成基于所述多个像素中的所述组中的每个像素的所述颜色和强度确定所述触觉效果。
2.根据权利要求1所述的系统,其中,所述纹理是振动触觉效果。
3.根据权利要求1所述的系统,其中,所述纹理包括以下纹理:沙子、蜥蜴皮肤或砖块。
4.根据权利要求1所述的系统,其中,所述致动器包括以下之一:偏心转动惯量电动机、线性谐振致动器、形状记忆合金、电活性聚合物或压电致动器。
5.根据权利要求1所述的系统,其中,所述触觉效果至少部分地基于在所述用户交互的位置处的虚拟对象来确定。
6.根据权利要求5所述的系统,其中,确定所述触觉效果包括将触觉值分配给所述颜色。
7.根据权利要求6所述的系统,其中,确定所述触觉效果包括:将触觉值仅分配给所述多个像素中的一些。
8.根据权利要求6所述的系统,其中确定所述触觉效果进一步包括:调节所述触觉值以对应于所述颜色的所述强度。
9.根据权利要求1所述的系统,其中,所述显示器与所述处理器通信并且被配置成接收所述显示信号并且输出图像。
10.根据权利要求9所述的系统,其中,所述纹理被输出到所述显示器的表面上。
11.根据权利要求9所述的系统,其中,所述致动器耦合至所述显示器。
12.根据权利要求1所述的系统,进一步包括:壳体,所述壳体被配置成包围所述致动器和所述处理器。
13.根据权利要求12所述的系统,其中,所述壳体包括移动设备壳体。
14.根据权利要求12所述的系统,其中,所述致动器耦合至所述壳体。
15.根据权利要求1所述的系统,进一步包括:触摸敏感界面,触摸敏感界面被配置成检测用户交互,并且至少部分地基于所述用户交互将传感器信号传送至所述处理器。
16.根据权利要求15所述的系统,其中,所述处理器被进一步配置成至少部分地基于所述传感器信号来确定所述触觉效果。
17.根据权利要求16所述的系统,其中,所述触摸敏感界面被配置成检测所述用户交互的速度,并且其中,确定所述触觉效果包括:调节所述触觉效果以与所述用户交互的所述速度对应。
18.根据权利要求16所述的系统,其中,所述触摸敏感界面被配置成检测所述用户交互的压力,并且其中,确定所述触觉效果包括:调节所述触觉效果的强度以与所述用户交互的所述压力对应。
19.一种用于输出触觉效果的方法,包括:
接收包括多个像素的显示信号;
从触摸敏感界面接收与在所述多个像素中的一组的顶部上的显示器位置处的用户交互相关联的交互信号;
部分地基于所述多个像素中的所述组以及所述交互信号确定包括纹理的触觉效果;以及
将与所述触觉效果相关联的触觉信号传送至致动器,所述致动器被配置成接收所述触觉信号并且输出所述触觉效果,
其中,所述多个像素中的每一个包括颜色和强度,以及其中,所述处理器被配置成部分地基于所述多个像素中的所述组中的每个像素的所述颜色和强度确定所述触觉效果。
20.根据权利要求19所述的方法,其中,所述触觉效果至少部分地基于在所述用户交互的位置处的虚拟对象来确定。
21.根据权利要求20所述的方法,其中,确定所述触觉效果包括:将触觉值分配给每种颜色。
22.根据权利要求20所述的方法,确定所述触觉效果进一步包括:使所述触觉值与所述颜色的所述强度相关联。
23.一种系统,包括:
触摸敏感界面,所述触摸敏感界面被配置成检测用户交互并且传送与所述用户交互相对应的信号,所述触摸敏感界面被配置成检测所述用户交互的速度和压力;
处理器,所述处理器与所述触摸敏感界面通信,所述处理器被配置成:
接收包括多个像素的显示信号,其中,每个像素包括颜色和强度;
至少部分地基于在与所述用户交互相关联的显示器的位置处的所述多个像素中的一组的所述颜色和强度以及所述用户交互的所述速度和压力来确定触觉效果;以及
传送与所述触觉效果相关联的触觉信号;
致动器,所述致动器与所述处理器通信,所述致动器被配置成接收所述触觉信号并且输出所述触觉效果,
其中,所述处理器被配置成基于所述多个像素中的所述组中的每个像素的所述颜色和强度确定所述触觉效果。
Applications Claiming Priority (19)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15948209P | 2009-03-12 | 2009-03-12 | |
US61/159,482 | 2009-03-12 | ||
US26204109P | 2009-11-17 | 2009-11-17 | |
US26203809P | 2009-11-17 | 2009-11-17 | |
US61/262,041 | 2009-11-17 | ||
US61/262,038 | 2009-11-17 | ||
US12/696,908 | 2010-01-29 | ||
US12/697,010 US9874935B2 (en) | 2009-03-12 | 2010-01-29 | Systems and methods for a texture engine |
US12/696,908 US10007340B2 (en) | 2009-03-12 | 2010-01-29 | Systems and methods for interfaces featuring surface-based haptic effects |
US12/696,893 US9746923B2 (en) | 2009-03-12 | 2010-01-29 | Systems and methods for providing features in a friction display wherein a haptic effect is configured to vary the coefficient of friction |
US12/697,037 | 2010-01-29 | ||
US12/697,042 | 2010-01-29 | ||
US12/697,042 US10564721B2 (en) | 2009-03-12 | 2010-01-29 | Systems and methods for using multiple actuators to realize textures |
US12/696,900 US9696803B2 (en) | 2009-03-12 | 2010-01-29 | Systems and methods for friction displays and additional haptic effects |
US12/697,037 US9927873B2 (en) | 2009-03-12 | 2010-01-29 | Systems and methods for using textures in graphical user interface widgets |
US12/697,010 | 2010-01-29 | ||
US12/696,893 | 2010-01-29 | ||
US12/696,900 | 2010-01-29 | ||
CN201080011743.9A CN102349038B (zh) | 2009-03-12 | 2010-03-11 | 用于纹理引擎的系统和方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080011743.9A Division CN102349038B (zh) | 2009-03-12 | 2010-03-11 | 用于纹理引擎的系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106339169A true CN106339169A (zh) | 2017-01-18 |
CN106339169B CN106339169B (zh) | 2019-08-13 |
Family
ID=73451291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610662488.3A Expired - Fee Related CN106339169B (zh) | 2009-03-12 | 2010-03-11 | 用于纹理引擎的系统和方法 |
Country Status (3)
Country | Link |
---|---|
US (3) | US9874935B2 (zh) |
JP (3) | JP6109229B2 (zh) |
CN (1) | CN106339169B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10073527B2 (en) | 2009-03-12 | 2018-09-11 | Immersion Corporation | Systems and methods for providing features in a friction display including a haptic effect based on a color and a degree of shading |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103513764B (zh) | 2007-09-18 | 2017-04-26 | 森赛格公司 | 用于感觉刺激的方法和设备 |
FI20085475A0 (fi) * | 2008-05-19 | 2008-05-19 | Senseg Oy | Kosketuslaiteliitäntä |
BRPI0804355A2 (pt) * | 2008-03-10 | 2009-11-03 | Lg Electronics Inc | terminal e método de controle do mesmo |
US9696803B2 (en) | 2009-03-12 | 2017-07-04 | Immersion Corporation | Systems and methods for friction displays and additional haptic effects |
US8686951B2 (en) | 2009-03-18 | 2014-04-01 | HJ Laboratories, LLC | Providing an elevated and texturized display in an electronic device |
EP2472365B1 (en) | 2009-08-27 | 2016-10-12 | Kyocera Corporation | Tactile sensation imparting device and control method of tactile sensation imparting device |
US8766933B2 (en) | 2009-11-12 | 2014-07-01 | Senseg Ltd. | Tactile stimulation apparatus having a composite section comprising a semiconducting material |
US20110260988A1 (en) * | 2010-01-20 | 2011-10-27 | Northwestern University | Method and apparatus for increasing magnitude and frequency of forces applied to a bare finger on a haptic surface |
US20110199342A1 (en) * | 2010-02-16 | 2011-08-18 | Harry Vartanian | Apparatus and method for providing elevated, indented or texturized sensations to an object near a display device or input detection using ultrasound |
US8587422B2 (en) | 2010-03-31 | 2013-11-19 | Tk Holdings, Inc. | Occupant sensing system |
US9007190B2 (en) | 2010-03-31 | 2015-04-14 | Tk Holdings Inc. | Steering wheel sensors |
US8725230B2 (en) | 2010-04-02 | 2014-05-13 | Tk Holdings Inc. | Steering wheel with hand sensors |
US20110276659A1 (en) * | 2010-04-05 | 2011-11-10 | Electronics And Telecommunications Research Institute | System and method for providing multimedia service in a communication system |
KR101640043B1 (ko) * | 2010-04-14 | 2016-07-15 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
US20120327006A1 (en) * | 2010-05-21 | 2012-12-27 | Disney Enterprises, Inc. | Using tactile feedback to provide spatial awareness |
US9030308B1 (en) * | 2010-07-02 | 2015-05-12 | Amazon Technologies, Inc. | Piezoelectric haptic actuator integration |
US8710968B2 (en) | 2010-10-07 | 2014-04-29 | Motorola Mobility Llc | System and method for outputting virtual textures in electronic devices |
US9389688B2 (en) * | 2010-12-31 | 2016-07-12 | Nokia Technologies Oy | Display apparatus producing audio and haptic output |
US10108288B2 (en) | 2011-05-10 | 2018-10-23 | Northwestern University | Touch interface device and method for applying controllable shear forces to a human appendage |
US9122325B2 (en) | 2011-05-10 | 2015-09-01 | Northwestern University | Touch interface device and method for applying controllable shear forces to a human appendage |
EP2754008A4 (en) * | 2011-06-21 | 2015-04-22 | Univ Northwestern | TOUCHING INTERFACE DEVICE AND METHOD FOR USING CROSS-HOLLOWS ON HUMAN LIMBS |
US8922507B2 (en) * | 2011-11-17 | 2014-12-30 | Google Inc. | Providing information through tactile feedback |
WO2013154720A1 (en) | 2012-04-13 | 2013-10-17 | Tk Holdings Inc. | Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same |
WO2015127257A1 (en) | 2014-02-21 | 2015-08-27 | Northwestern University | Haptic display with simultaneous sensing and actuation |
JP6260622B2 (ja) | 2012-09-17 | 2018-01-17 | ティーケー ホールディングス インク.Tk Holdings Inc. | 単一層力センサ |
US9836150B2 (en) | 2012-11-20 | 2017-12-05 | Immersion Corporation | System and method for feedforward and feedback with haptic effects |
US9330544B2 (en) | 2012-11-20 | 2016-05-03 | Immersion Corporation | System and method for simulated physical interactions with haptic effects |
US9880623B2 (en) | 2013-01-24 | 2018-01-30 | Immersion Corporation | Friction modulation for three dimensional relief in a haptic device |
US9189098B2 (en) | 2013-03-14 | 2015-11-17 | Immersion Corporation | Systems and methods for syncing haptic feedback calls |
US11379040B2 (en) * | 2013-03-20 | 2022-07-05 | Nokia Technologies Oy | Touch display device with tactile feedback |
US9939900B2 (en) | 2013-04-26 | 2018-04-10 | Immersion Corporation | System and method for a haptically-enabled deformable surface |
US10120447B2 (en) | 2013-06-24 | 2018-11-06 | Northwestern University | Haptic display with simultaneous sensing and actuation |
US9729730B2 (en) | 2013-07-02 | 2017-08-08 | Immersion Corporation | Systems and methods for perceptual normalization of haptic effects |
US9520036B1 (en) * | 2013-09-18 | 2016-12-13 | Amazon Technologies, Inc. | Haptic output generation with dynamic feedback control |
WO2015054364A1 (en) | 2013-10-08 | 2015-04-16 | Tk Holdings Inc. | Self-calibrating tactile haptic multi-touch, multifunction switch panel |
US9965034B2 (en) | 2013-12-30 | 2018-05-08 | Immersion Corporation | Systems and methods for a haptically-enabled projected user interface |
JP2015130168A (ja) * | 2013-12-31 | 2015-07-16 | イマージョン コーポレーションImmersion Corporation | 摩擦拡張制御、及び、タッチコントロールパネルのボタンを摩擦拡張制御部へと変換する方法 |
JP6289100B2 (ja) * | 2014-01-06 | 2018-03-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR101846256B1 (ko) * | 2014-05-09 | 2018-05-18 | 삼성전자주식회사 | 필기감을 제공하는 촉각 피드백 장치 및 방법 |
JP6294170B2 (ja) | 2014-06-26 | 2018-03-14 | 京セラ株式会社 | 触感呈示装置 |
US9690381B2 (en) | 2014-08-21 | 2017-06-27 | Immersion Corporation | Systems and methods for shape input and output for a haptically-enabled deformable surface |
US9535550B2 (en) | 2014-11-25 | 2017-01-03 | Immersion Corporation | Systems and methods for deformation-based haptic effects |
WO2016120956A1 (ja) | 2015-01-26 | 2016-08-04 | 富士通株式会社 | 駆動制御装置、電子機器、駆動制御プログラム、及び駆動制御方法 |
CN106371573B (zh) | 2015-12-04 | 2020-06-02 | 北京智谷睿拓技术服务有限公司 | 触觉反馈的方法、装置和虚拟现实交互系统 |
US9875625B2 (en) | 2015-12-18 | 2018-01-23 | Immersion Corporation | Systems and methods for multifunction haptic output devices |
US9983675B2 (en) | 2016-06-10 | 2018-05-29 | Immersion Corporation | Systems and methods for monitoring insulation integrity for electrostatic friction |
US10073525B2 (en) | 2016-06-16 | 2018-09-11 | Immersion Corporation | Systems and methods for a low profile haptic actuator |
US9898904B1 (en) | 2016-08-17 | 2018-02-20 | Immersion Corporation | Selective control of an electric field to deliver a touchless haptic effect |
US10234945B2 (en) | 2016-09-09 | 2019-03-19 | Immersion Corporation | Compensated haptic rendering for flexible electronic devices |
US10572013B2 (en) | 2016-10-03 | 2020-02-25 | Nokia Technologies Oy | Haptic feedback reorganization |
US10261586B2 (en) | 2016-10-11 | 2019-04-16 | Immersion Corporation | Systems and methods for providing electrostatic haptic effects via a wearable or handheld device |
US10416768B2 (en) | 2016-12-28 | 2019-09-17 | Immersion Corporation | Unitary sensor and haptic actuator |
CN106843615B (zh) * | 2017-01-03 | 2019-10-01 | 京东方科技集团股份有限公司 | 一种显示屏和显示系统 |
JP7087367B2 (ja) * | 2017-12-08 | 2022-06-21 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、プログラム及び制御方法 |
WO2020044621A1 (ja) | 2018-08-29 | 2020-03-05 | アルプスアルパイン株式会社 | 入力装置、制御方法及びプログラム |
EP3650960A1 (fr) * | 2018-11-07 | 2020-05-13 | Tissot S.A. | Procede de diffusion d'un message par une montre |
TWI698781B (zh) | 2018-12-10 | 2020-07-11 | 財團法人工業技術研究院 | 量測系統及應用其之量測方法 |
JP2020144563A (ja) * | 2019-03-06 | 2020-09-10 | 株式会社ジャパンディスプレイ | 表示装置 |
CN109992175B (zh) * | 2019-04-03 | 2021-10-26 | 腾讯科技(深圳)有限公司 | 用于模拟盲人感受的物体显示方法、装置及存储介质 |
WO2021240818A1 (ja) * | 2020-05-29 | 2021-12-02 | 三菱電機株式会社 | 表示器 |
WO2023037463A1 (ja) * | 2021-09-09 | 2023-03-16 | 豊田合成株式会社 | 触感提示装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050057528A1 (en) * | 2003-09-01 | 2005-03-17 | Martin Kleen | Screen having a touch-sensitive user interface for command input |
US20060024647A1 (en) * | 2004-07-30 | 2006-02-02 | France Telecom | Method and apparatus for communicating graphical information to a visually impaired person using haptic feedback |
US20060119586A1 (en) * | 2004-10-08 | 2006-06-08 | Immersion Corporation, A Delaware Corporation | Haptic feedback for button and scrolling action simulation in touch input devices |
US20060209037A1 (en) * | 2004-03-15 | 2006-09-21 | David Wang | Method and system for providing haptic effects |
EP1748350A2 (en) * | 2005-07-28 | 2007-01-31 | Avago Technologies General IP (Singapore) Pte. Ltd | Touch device and method for providing tactile feedback |
US20070236450A1 (en) * | 2006-03-24 | 2007-10-11 | Northwestern University | Haptic device with indirect haptic feedback |
US20080068348A1 (en) * | 1998-06-23 | 2008-03-20 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
CN101222704A (zh) * | 2006-12-21 | 2008-07-16 | 三星电子株式会社 | 用于在移动终端中提供触觉用户界面的设备和方法 |
Family Cites Families (115)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4928030A (en) | 1988-09-30 | 1990-05-22 | Rockwell International Corporation | Piezoelectric actuator |
DK0449048T3 (da) | 1990-03-23 | 1995-06-26 | Rockwell International Corp | Piezoelektrisk motor |
EP0537384A1 (en) | 1991-08-22 | 1993-04-21 | Mitsubishi Jukogyo Kabushiki Kaisha | Rotation control system for ultrasonic motor |
US6131097A (en) | 1992-12-02 | 2000-10-10 | Immersion Corporation | Haptic authoring |
US5629594A (en) | 1992-12-02 | 1997-05-13 | Cybernet Systems Corporation | Force feedback system |
US5734373A (en) | 1993-07-16 | 1998-03-31 | Immersion Human Interface Corporation | Method and apparatus for controlling force feedback interface systems utilizing a host computer |
US5767839A (en) | 1995-01-18 | 1998-06-16 | Immersion Human Interface Corporation | Method and apparatus for providing passive force feedback to human-computer interface systems |
WO1995020787A1 (en) | 1994-01-27 | 1995-08-03 | Exos, Inc. | Multimode feedback display technology |
US6850222B1 (en) | 1995-01-18 | 2005-02-01 | Immersion Corporation | Passive force feedback for computer interface devices |
US5691898A (en) | 1995-09-27 | 1997-11-25 | Immersion Human Interface Corp. | Safe and low cost computer peripherals with force feedback for consumer applications |
US5959613A (en) | 1995-12-01 | 1999-09-28 | Immersion Corporation | Method and apparatus for shaping force signals for a force feedback device |
US6028593A (en) | 1995-12-01 | 2000-02-22 | Immersion Corporation | Method and apparatus for providing simulated physical interactions within computer generated environments |
US6169540B1 (en) | 1995-12-01 | 2001-01-02 | Immersion Corporation | Method and apparatus for designing force sensations in force feedback applications |
US5956484A (en) | 1995-12-13 | 1999-09-21 | Immersion Corporation | Method and apparatus for providing force feedback over a computer network |
US6147674A (en) | 1995-12-01 | 2000-11-14 | Immersion Corporation | Method and apparatus for designing force sensations in force feedback computer applications |
US7027032B2 (en) | 1995-12-01 | 2006-04-11 | Immersion Corporation | Designing force sensations for force feedback computer applications |
US6219032B1 (en) | 1995-12-01 | 2001-04-17 | Immersion Corporation | Method for providing force feedback to a user of an interface device based on interactions of a controlled cursor with graphical elements in a graphical user interface |
US6859819B1 (en) | 1995-12-13 | 2005-02-22 | Immersion Corporation | Force feedback enabled over a computer network |
US6046730A (en) | 1996-03-15 | 2000-04-04 | At&T Corp | Backlighting scheme for a multimedia terminal keypad |
US6111577A (en) * | 1996-04-04 | 2000-08-29 | Massachusetts Institute Of Technology | Method and apparatus for determining forces to be applied to a user through a haptic interface |
US5802353A (en) * | 1996-06-12 | 1998-09-01 | General Electric Company | Haptic computer modeling system |
US6046527A (en) | 1996-07-05 | 2000-04-04 | Honeybee Robotics, Inc. | Ultrasonic positioner with multiple degrees of freedom of movement |
US6084587A (en) | 1996-08-02 | 2000-07-04 | Sensable Technologies, Inc. | Method and apparatus for generating and interfacing with a haptic virtual reality environment |
US7815436B2 (en) | 1996-09-04 | 2010-10-19 | Immersion Corporation | Surgical simulation interface device and method |
JP4354540B2 (ja) | 1996-10-18 | 2009-10-28 | ヤマハ株式会社 | 力覚駆動装置、力覚付与方法および記録媒体 |
US6285351B1 (en) | 1997-04-25 | 2001-09-04 | Immersion Corporation | Designing force sensations for computer applications including sounds |
US6292170B1 (en) | 1997-04-25 | 2001-09-18 | Immersion Corporation | Designing compound force sensations for computer applications |
US6252579B1 (en) | 1997-08-23 | 2001-06-26 | Immersion Corporation | Interface device and method for providing enhanced cursor control with force feedback |
JP4149574B2 (ja) | 1997-08-29 | 2008-09-10 | ゼロックス コーポレイション | ユーザインターフェースサポートデバイス、及び情報入力方法 |
US6448977B1 (en) | 1997-11-14 | 2002-09-10 | Immersion Corporation | Textures and other spatial sensations for a relative haptic interface device |
US6088019A (en) | 1998-06-23 | 2000-07-11 | Immersion Corporation | Low cost force feedback device with actuator for non-primary axis |
US6026593A (en) * | 1997-12-05 | 2000-02-22 | New Balance Athletic Shoe, Inc. | Shoe sole cushion |
KR100595922B1 (ko) | 1998-01-26 | 2006-07-05 | 웨인 웨스터만 | 수동 입력 통합 방법 및 장치 |
JP3987182B2 (ja) | 1998-01-26 | 2007-10-03 | Idec株式会社 | 情報表示装置および操作入力装置 |
US6433711B1 (en) | 1999-12-14 | 2002-08-13 | Texas Instruments Incorporated | System and method for offset error compensation in comparators |
US6822635B2 (en) * | 2000-01-19 | 2004-11-23 | Immersion Corporation | Haptic interface for laptop computers and other portable devices |
JP2001290572A (ja) | 2000-04-05 | 2001-10-19 | Fuji Xerox Co Ltd | 情報処理装置 |
JP2001296950A (ja) * | 2000-04-14 | 2001-10-26 | Fuji Xerox Co Ltd | 触力覚呈示装置及び記録媒体 |
US6963762B2 (en) | 2001-05-23 | 2005-11-08 | Nokia Corporation | Mobile phone using tactile icons |
JP2003091233A (ja) * | 2001-09-17 | 2003-03-28 | Toru Saito | 画像表示装置および画像入力装置 |
JP2003099177A (ja) | 2001-09-21 | 2003-04-04 | Fuji Xerox Co Ltd | 触覚情報作成方法、触覚情報提示方法および触覚情報提示装置 |
US7032188B2 (en) | 2001-09-28 | 2006-04-18 | Nokia Corporation | Multilevel sorting and displaying of contextual objects |
ATE320059T1 (de) | 2001-12-12 | 2006-03-15 | Koninkl Philips Electronics Nv | Anzeigensystem mit taktiler führung |
DE50207822D1 (de) | 2001-12-18 | 2006-09-21 | Oce Printing Systems Gmbh | Verfahren, gerätesystem und computerprogramm zum speichern und abrufen von druckdaten in einem netzwerk |
US6703924B2 (en) | 2001-12-20 | 2004-03-09 | Hewlett-Packard Development Company, L.P. | Tactile display apparatus |
JP4061105B2 (ja) | 2002-03-29 | 2008-03-12 | アルプス電気株式会社 | 力覚付与装置 |
KR100769783B1 (ko) | 2002-03-29 | 2007-10-24 | 가부시끼가이샤 도시바 | 표시 입력 장치 및 표시 입력 시스템 |
US6904823B2 (en) | 2002-04-03 | 2005-06-14 | Immersion Corporation | Haptic shifting devices |
JP2003308152A (ja) * | 2002-04-17 | 2003-10-31 | Nippon Hoso Kyokai <Nhk> | 触感提示装置 |
JP3852368B2 (ja) | 2002-05-16 | 2006-11-29 | ソニー株式会社 | 入力方法及びデータ処理装置 |
JP4032882B2 (ja) * | 2002-08-29 | 2008-01-16 | 松下電工株式会社 | 触力覚呈示装置 |
KR20040025398A (ko) | 2002-09-19 | 2004-03-24 | 삼성전자주식회사 | 이동 통신 단말의 호착신 알림 방법 |
JP2004145456A (ja) * | 2002-10-22 | 2004-05-20 | Canon Inc | 情報出力装置 |
JP4117352B2 (ja) | 2002-11-12 | 2008-07-16 | 株式会社ソニー・コンピュータエンタテインメント | ファイル処理方法とこの方法を利用可能な装置 |
US7278119B2 (en) | 2002-11-29 | 2007-10-02 | Sigmatel, Inc. | Battery-optimized system-on-a-chip and applications thereof |
CN1320421C (zh) | 2002-12-04 | 2007-06-06 | 皇家飞利浦电子股份有限公司 | 具有触摸检测能力的用于设备的控制面板及其控制方法 |
FI20022282A0 (fi) | 2002-12-30 | 2002-12-30 | Nokia Corp | Menetelmä vuorovaikutuksen mahdollistamiseksi elektronisessa laitteessa ja elektroninen laite |
JP2006518507A (ja) | 2003-02-19 | 2006-08-10 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ポータブル装置間でのコンテンツアイテムのアドホック共有のためのシステムと、そのインタラクション方法 |
JP2004265281A (ja) | 2003-03-04 | 2004-09-24 | Univ Nihon | 振動応答型タッチパネル |
JP2004310518A (ja) | 2003-04-08 | 2004-11-04 | Fuji Xerox Co Ltd | 画像情報処理装置 |
US20040218910A1 (en) | 2003-04-30 | 2004-11-04 | Chang Nelson L. | Enabling a three-dimensional simulation of a trip through a region |
JP2004342018A (ja) | 2003-05-19 | 2004-12-02 | Alps Electric Co Ltd | 力覚付与型入力装置 |
JP3856774B2 (ja) | 2003-08-29 | 2006-12-13 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 音声出力装置、情報入力装置、ファイル選択装置、電話機、及びそのプログラムと記録媒体 |
JP2005258666A (ja) | 2004-03-10 | 2005-09-22 | Sony Corp | 入力装置および電子機器並びに電子機器の感触フィードバック入力方法 |
JP4345534B2 (ja) * | 2004-03-17 | 2009-10-14 | ソニー株式会社 | 触覚機能付き入力装置、情報入力方法及び電子機器 |
EP1728142B1 (en) | 2004-03-23 | 2010-08-04 | Fujitsu Ltd. | Distinguishing tilt and translation motion components in handheld devices |
JP4046095B2 (ja) | 2004-03-26 | 2008-02-13 | ソニー株式会社 | 触覚機能付き入力装置、情報入力方法及び電子機器 |
US20060061545A1 (en) | 2004-04-02 | 2006-03-23 | Media Lab Europe Limited ( In Voluntary Liquidation). | Motion-activated control with haptic feedback |
GB2416962B (en) | 2004-08-05 | 2009-04-01 | Vodafone Plc | New communication type for mobile telecommunications networks |
US9046922B2 (en) | 2004-09-20 | 2015-06-02 | Immersion Corporation | Products and processes for providing multimodal feedback in a user interface device |
US8677274B2 (en) | 2004-11-10 | 2014-03-18 | Apple Inc. | Highlighting items for search results |
JP4997114B2 (ja) | 2004-11-30 | 2012-08-08 | イマージョン コーポレイション | 振動触覚ハプティック効果を発生させるための共振装置を制御するためのシステムおよび方法 |
JP2006163206A (ja) * | 2004-12-09 | 2006-06-22 | Ntt Docomo Inc | 触覚提示装置 |
GB0503253D0 (en) | 2005-02-17 | 2005-03-23 | Univ Northumbria Newcastle | User control of a hand-held device |
JP2006228151A (ja) | 2005-02-21 | 2006-08-31 | Tokai Rika Co Ltd | タッチ式入力装置 |
US20060226298A1 (en) * | 2005-03-30 | 2006-10-12 | Lionel L.L.C. | Graphical method and system for model vehicle and accessory control |
JP4675152B2 (ja) | 2005-05-16 | 2011-04-20 | 株式会社ワコム | 可搬性を備えるコンピュータ |
JP4756916B2 (ja) | 2005-05-31 | 2011-08-24 | キヤノン株式会社 | 振動波モータ |
WO2007002775A2 (en) | 2005-06-27 | 2007-01-04 | Coactive Drive Corporation | Synchronized vibration device for haptic feedback |
KR100739723B1 (ko) | 2005-07-19 | 2007-07-13 | 삼성전자주식회사 | 오디오 썸네일 기능을 지원하는 오디오 재생 방법 및 장치 |
US8116740B2 (en) | 2005-09-21 | 2012-02-14 | Nokia Corporation | Mobile communication terminal and method |
US8780053B2 (en) | 2007-03-21 | 2014-07-15 | Northwestern University | Vibrating substrate for haptic interface |
US8525778B2 (en) | 2007-03-21 | 2013-09-03 | Northwestern University | Haptic device with controlled traction forces |
WO2007117418A2 (en) | 2006-03-31 | 2007-10-18 | Wms Gaming Inc. | Portable wagering game with vibrational cues and feedback mechanism |
US20070236474A1 (en) | 2006-04-10 | 2007-10-11 | Immersion Corporation | Touch Panel with a Haptically Generated Reference Key |
US8174512B2 (en) | 2006-06-02 | 2012-05-08 | Immersion Corporation | Hybrid haptic device utilizing mechanical and programmable haptic effects |
JP2007331066A (ja) | 2006-06-15 | 2007-12-27 | Canon Inc | 接触提示装置及び方法 |
US7920124B2 (en) | 2006-08-29 | 2011-04-05 | Canon Kabushiki Kaisha | Force sense presentation device, mixed reality system, information processing method, and information processing apparatus |
WO2008037275A1 (en) | 2006-09-27 | 2008-04-03 | Nokia Corporation | Tactile touch screen |
US7890863B2 (en) | 2006-10-04 | 2011-02-15 | Immersion Corporation | Haptic effects with proximity sensing |
US20080122589A1 (en) | 2006-11-28 | 2008-05-29 | Ivanov Yuri A | Tactile Output Device |
CN101021745A (zh) * | 2006-12-14 | 2007-08-22 | 东南大学 | 基于多维刺激的彩色射流触觉图文显示装置及显示方法 |
US8098234B2 (en) | 2007-02-20 | 2012-01-17 | Immersion Corporation | Haptic feedback system with stored effects |
JP2008225690A (ja) | 2007-03-09 | 2008-09-25 | Sony Corp | 振動体、触覚機能付きの入力装置及び電子機器 |
US20100207871A1 (en) | 2007-04-26 | 2010-08-19 | Nokia Corporation | Method and portable apparatus |
US8315652B2 (en) | 2007-05-18 | 2012-11-20 | Immersion Corporation | Haptically enabled messaging |
JP2009003867A (ja) | 2007-06-25 | 2009-01-08 | Panasonic Electric Works Co Ltd | 表示装置およびコンピュータ・プログラム |
US20090002328A1 (en) | 2007-06-26 | 2009-01-01 | Immersion Corporation, A Delaware Corporation | Method and apparatus for multi-touch tactile touch panel actuator mechanisms |
CN101836207B (zh) | 2007-08-20 | 2017-03-01 | 高通股份有限公司 | 超出词汇的词的增强的拒绝 |
KR101348721B1 (ko) | 2007-09-03 | 2014-01-08 | 엘지전자 주식회사 | 휴대 단말기 및 그 휴대 단말기의 터치 인식 방법 |
US20090102805A1 (en) | 2007-10-18 | 2009-04-23 | Microsoft Corporation | Three-dimensional object simulation using audio, visual, and tactile feedback |
US20090112572A1 (en) | 2007-10-30 | 2009-04-30 | Karl Ola Thorn | System and method for input of text to an application operating on a device |
KR100954529B1 (ko) | 2007-11-27 | 2010-04-23 | 한국과학기술연구원 | 원환형 압전 초음파 공진기 및 그를 이용한 압전 초음파회전모터 |
US9569086B2 (en) | 2007-12-12 | 2017-02-14 | Nokia Technologies Oy | User interface having realistic physical effects |
US9170649B2 (en) | 2007-12-28 | 2015-10-27 | Nokia Technologies Oy | Audio and tactile feedback based on visual environment |
WO2009097866A1 (en) | 2008-02-04 | 2009-08-13 | Nokia Corporation | Device and method for providing tactile information |
US20090207129A1 (en) | 2008-02-15 | 2009-08-20 | Immersion Corporation | Providing Haptic Feedback To User-Operated Switch |
BRPI0804355A2 (pt) * | 2008-03-10 | 2009-11-03 | Lg Electronics Inc | terminal e método de controle do mesmo |
US20100020036A1 (en) | 2008-07-23 | 2010-01-28 | Edward Hui | Portable electronic device and method of controlling same |
NL2003141A1 (nl) | 2008-07-30 | 2010-02-02 | Asml Holding Nv | Actuator system using multiple piezoelectric actuators. |
US8749495B2 (en) | 2008-09-24 | 2014-06-10 | Immersion Corporation | Multiple actuation handheld device |
JP2010107800A (ja) * | 2008-10-31 | 2010-05-13 | David Rebolledo Mendez Jovan | 知覚装置 |
US10007340B2 (en) | 2009-03-12 | 2018-06-26 | Immersion Corporation | Systems and methods for interfaces featuring surface-based haptic effects |
JP5668076B2 (ja) | 2009-11-17 | 2015-02-12 | イマージョン コーポレーションImmersion Corporation | 電子デバイスにおける触覚帯域を増加するためのシステム及び方法 |
CN103620928A (zh) | 2011-03-17 | 2014-03-05 | 联合活跃驱动公司 | 多个同步振动致动器的非对称总体振动波形 |
-
2010
- 2010-01-29 US US12/697,010 patent/US9874935B2/en active Active
- 2010-03-11 CN CN201610662488.3A patent/CN106339169B/zh not_active Expired - Fee Related
-
2015
- 2015-04-16 JP JP2015083829A patent/JP6109229B2/ja not_active Expired - Fee Related
-
2017
- 2017-03-07 JP JP2017042617A patent/JP6410860B2/ja active Active
- 2017-09-11 US US15/700,295 patent/US10198077B2/en active Active
-
2018
- 2018-09-25 JP JP2018178488A patent/JP2019023892A/ja active Pending
- 2018-12-20 US US16/227,641 patent/US20190129505A1/en not_active Abandoned
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080068348A1 (en) * | 1998-06-23 | 2008-03-20 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
US20050057528A1 (en) * | 2003-09-01 | 2005-03-17 | Martin Kleen | Screen having a touch-sensitive user interface for command input |
US20060209037A1 (en) * | 2004-03-15 | 2006-09-21 | David Wang | Method and system for providing haptic effects |
US20060024647A1 (en) * | 2004-07-30 | 2006-02-02 | France Telecom | Method and apparatus for communicating graphical information to a visually impaired person using haptic feedback |
US20060119586A1 (en) * | 2004-10-08 | 2006-06-08 | Immersion Corporation, A Delaware Corporation | Haptic feedback for button and scrolling action simulation in touch input devices |
EP1748350A2 (en) * | 2005-07-28 | 2007-01-31 | Avago Technologies General IP (Singapore) Pte. Ltd | Touch device and method for providing tactile feedback |
US20070236450A1 (en) * | 2006-03-24 | 2007-10-11 | Northwestern University | Haptic device with indirect haptic feedback |
CN101222704A (zh) * | 2006-12-21 | 2008-07-16 | 三星电子株式会社 | 用于在移动终端中提供触觉用户界面的设备和方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10073527B2 (en) | 2009-03-12 | 2018-09-11 | Immersion Corporation | Systems and methods for providing features in a friction display including a haptic effect based on a color and a degree of shading |
US10747322B2 (en) | 2009-03-12 | 2020-08-18 | Immersion Corporation | Systems and methods for providing features in a friction display |
Also Published As
Publication number | Publication date |
---|---|
JP2015167023A (ja) | 2015-09-24 |
US20180011539A1 (en) | 2018-01-11 |
CN106339169B (zh) | 2019-08-13 |
JP6109229B2 (ja) | 2017-04-05 |
US10198077B2 (en) | 2019-02-05 |
US9874935B2 (en) | 2018-01-23 |
US20190129505A1 (en) | 2019-05-02 |
JP6410860B2 (ja) | 2018-10-24 |
US20100231540A1 (en) | 2010-09-16 |
JP2019023892A (ja) | 2019-02-14 |
JP2017138996A (ja) | 2017-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106339169A (zh) | 用于纹理引擎的系统和方法 | |
CN102349038B (zh) | 用于纹理引擎的系统和方法 | |
JP6588951B2 (ja) | テクスチャを実現するために複数のアクチュエータを用いるシステム及び方法 | |
CN105892921B (zh) | 用于使用多个致动器实现纹理的系统和方法 | |
JP6463795B2 (ja) | グラフィカルユーザインターフェース装置においてテクスチャを用いるためのシステム及び方法 | |
JP5606462B2 (ja) | テクスチャを実現するために複数のアクチュエータを用いるシステム及び方法 | |
JP5694204B2 (ja) | グラフィカルユーザインターフェース装置においてテクスチャを用いるためのシステム及び方法 | |
KR101992070B1 (ko) | 텍스처 엔진에 대한 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190813 |