CN205788149U - 电子设备以及用于显示图像的装置 - Google Patents

电子设备以及用于显示图像的装置 Download PDF

Info

Publication number
CN205788149U
CN205788149U CN201620470247.4U CN201620470247U CN205788149U CN 205788149 U CN205788149 U CN 205788149U CN 201620470247 U CN201620470247 U CN 201620470247U CN 205788149 U CN205788149 U CN 205788149U
Authority
CN
China
Prior art keywords
image
presentation graphics
input
image sequence
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201620470247.4U
Other languages
English (en)
Inventor
H·D·彭哈
C·A·梅扎克
B·J·曼扎里
P·M·洛佩斯
G·R·科拉克
P·皮沃恩卡
S·J·鲍尔
I·A·乔德里
A·C·戴伊
C·M·费德里吉
A·古斯曼
J·伊夫
N·V·金
J·S·蒂蒂
C·I·威尔森
E·B·哈里斯
E·基姆
B·J·兰戈兰特
B·S·缪拉
D·E·格贝拉鲁巴尔卡瓦
C·P·福斯
K·L·科希恩达
D·T·普雷斯顿
G·M·阿波达卡
S·博韦特
M·T·朱雷维茨
B·B·科诺利
N·C·玛里克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Computer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/863,432 external-priority patent/US9860451B2/en
Application filed by Apple Computer Inc filed Critical Apple Computer Inc
Application granted granted Critical
Publication of CN205788149U publication Critical patent/CN205788149U/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Abstract

本公开提供了一种电子设备以及用于显示图像的装置。一种电子设备包括相机。当处于用于相机的第一媒体采集模式中时,该设备在显示器上显示实时预览。当显示实时预览时,该设备检测对快门按钮的激活。响应于检测到对快门按钮的激活,该设备将由相机在与在对快门按钮的激活接近的时间上采集的多个图像分组到图像序列中。该图像序列包括:由相机在检测到对快门按钮的激活之前采集的多个图像;代表性图像,该代表性图像代表第一图像序列并且由相机在第一图像序列中的其他图像中的一个或多个之后采集;以及由相机在采集代表性图像之后采集的多个图像。

Description

电子设备以及用于显示图像的装置
技术领域
本文大体涉及具有触敏表面的电子设备,包括但不限于具有捕获、显示和/或另外操纵由相机拍摄或记录的数字内容的触敏表面的电子设备。
背景技术
对电子设备用于捕获、查看、编辑和分享数字内容的使用近年来已经显著增加。用户频繁地利用他们的便携式电子设备(例如,智能电话、平板计算机和专用数字相机)来记录数字内容(例如,图像和/或视频);在图像管理应用(例如,来自加利福尼亚库比蒂诺的苹果公司的“照片”)和/或数字内容管理应用(例如,来自加利福尼亚库比蒂诺的苹果公司的iTunes)中查看并编辑他们的数字内容;并且通过即时消息、电子邮件、社交媒体应用以及其他通信应用分享他们的数字内容。
便携式电子设备通常捕获两种类型的数字内容:静止图像和视频。静止图像通常通过简单地按下快门按钮来捕获。静止图像冻结时间上的某一时刻,但是围绕该时刻的片刻的细节丢失。视频记录延伸的时间段,其可以包括有趣的片刻和不是那么有趣的片刻两者。通常需要重大的编辑以去除不太有趣的片刻。
实用新型内容
因此,存在对具有用于捕获由相机拍摄或记录的片刻并与之交互的改进的界面的电子设备的需要。这样的界面可选地补充或替代用于捕获静止图像和视频和与之交互的传统方法。
所公开的设备通过提供用户捕获片刻和与片刻交互的新的且改进的方法来将摄影扩展到静止图像以外。在一些实施例中,该设备是台式计算机。在一些实施例中,该设备是便携式的(例如,笔记本计算机、平板计算机或手持设备)。在一些实施例中,该设备是个人电子设备(例如,可穿戴电子设备,例如手表)。在一些实施例中,该设备是触摸板。在一些实施例中,该设备具有触敏显示器(还被称为“触摸屏”或“触摸屏显示器”)。在一些实施例中,该设备具有图形用户界面(GUI)、一个或多个处理器、存储器和一个或多个模块、存储在存储器中以用于执行多个功能的程序或指令集。在一些实施例中,该用户界面主要通过触敏表面上的触笔和/或手指接触和手势与GUI交互。在一些实施例中,功能可选地包括图像编辑、绘制、演示、文字处理、电子表格制作、打游戏、打电话、视频会议、电子邮件、即时消息收发、锻炼支持、数码摄影、数字视频、网络浏览、数字音乐播放、做笔记和/或数字视频播放。用于执行这些功能的可执行指令可选地被包含在被配置用于由一个或多个处理器运行的非暂态计算机可读存储介质或其他计算机程序产品中。
提供了一种电子设备,其特征在于包括:显示单元,其被配置为显示图像;触敏表面单元,其被配置为检测用户输入;以及处理单元,其与所述显示单元和所述触敏表面单元耦合,所述处理单元被配置为:使得能够在所述显示单元上显示代表性图像,其中:所述代表性图像是由相机拍摄的图像序列中的一个图像;所述图像序列包括由所述相机在采集所述代表性图像之后采集的一个或多个图像;并且所述图像序列包括由所述相机在采集所述代表性图像之前采集的一个或多个图像;当使得能够在所述显示单元上显示所述代表性图像时检测第一输入的第一部分;并且,响应于检测到所述第一输入的所述第一部分:从显示所述代表性图像转变到显示所述图像序列中的相应先前图像,其中所述相应先前图像由所述相机在采集所述代表性图像之前采集;并且在从显示所述代表性图像转变到显示所述相应先前图像之后,使得能够以所述相应先前图像开始顺序显示由所述相机在采集所述代表性图像之前采集的所述一个或多个图像中的至少一些图像和由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像。
可选地,从显示所述代表性图像转变到显示所述相应先前图像包括使得能够顺序显示由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像,并且之后使得能够利用所述相应先前图像来替代对在采集所述代表性图像之后采集的相应后续图像的显示。
可选地,从显示所述代表性图像转变到显示所述相应先前图像包括使得能够利用所述相应先前图像来替代对所述代表性图像的显示。
可选地,从显示所述代表性图像转变到显示所述相应先前图像包括:根据所述第一输入的所述第一部分满足第一回放准则的确定,使得能够顺序显示由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像,并且之后使得能够利用所述相应先前图像来替代对在采集所述代表性图像之后采集的相应后续图像的显示;以及根据所述第一输入的所述第一部分满足与第一回放准则不同的第二回放准则的确定,使得能够利用所述相应先前图像来替代对所述代表性图像的显示。
可选地,所述设备包括用于检测与所述触敏表面单元的接触的强度的一个或多个传感器单元;所述第一输入包括在所述触敏表面单元上的接触;所述第一回放准则包括当所述接触具有高于第一强度阈值的特征强度时被满足的准则;并且所述第二回放准则包括当所述接触具有高于比所述第一强度阈值更大的第二强度阈值的特征强度时被满足的准则。
可选地,所述第一输入是按下并保持手势。
可选地,以固定速率以所述相应先前图像开始顺序显示由所述相机在采集所述代表性图像之前采集的所述一个或多个图像和由所述相机在采集所述代表性图像之后采集的所述一个或多个图像。
可选地,所述处理单元被配置为:呈现与所述图像序列相对应的音频。
可选地,所述处理单元被配置为:在检测到所述第一输入的所述第一部分之后,检测所述第一输入的第二部分;并且响应于检测到所述第一输入的所述第二部分,使得能够顺序显示由所述相机在采集所述代表性图像之前采集的所述一个或多个图像中的至少一些图像和由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像。
可选地,所述处理单元被配置为:响应于检测到所述第一输入的所述第二部分,使得能够显示与所述图像序列相对应的元数据。
可选地,所述处理单元被配置为:检测所述第一输入的终止;并且响应于检测到所述第一输入的终止,使得能够显示所述代表性图像。
可选地,所述处理单元被配置为:当使得能够显示所述图像序列中的第一图像时检测所述第一输入的终止;并且,响应于当使得能够显示所述图像序列中的所述第一图像时检测到所述第一输入的终止:根据所述第一图像出现在所述图像序列中的所述代表性图像之前的确定,使得能够按时间顺序来顺序显示从所述第一图像到所述代表性图像的图像,并且根据所述第一图像出现在所述图像序列中的所述代表性图像之后的确定,使得能够按反向时间顺序来顺序显示从所述第一图像到所述代表性图像的图像。
可选地,所述图像序列被配置为在前向方向或反向方向上以循环方式被顺序显示,并且所述处理单元被配置为:当使得能够显示所述图像序列中的第一图像时检测所述第一输入的终止;并且,响应于当使得能够显示所述图像序列中的所述第一图像时检测到所述第一输入的终止:根据当所述循环在所述前向方向上被遍历时在所述第一图像与所述代表性图像之间存在较少图像的确定,使得能够在所述前向方向上顺序显示从所述第一图像到所述代表性图像的图像,并且根据当所述循环在所述反向方向上被遍历时在所述第一图像与所述代表性图像之间存在较少图像的确定,使得能够在所述反向方向上顺序显示从所述第一图像到所述代表性图像的图像。
还提供了一种用于显示图像的装置,其特征在于包括:用于在包括触敏表面的电子设备的显示器上显示代表性图像的部件,其特征在于:所述代表性图像是由相机拍摄的图像序列中的一个图像;所述图像序列包括由所述相机在采集所述代表性图像之后采集的一个或多个图像;并且所述图像序列包括由所述相机在采集所述代表性图像之前采集的一个或多个图像;当在所述显示器上显示所述代表性图像时而被启用以用于检测第一输入的第一部分的部件;以及,用于响应于检测到所述第一输入的所述第一部分而被启用的部件,包括:用于从显示所述代表性图像转变到显示所述图像序列中的相应先前图像的部件,其中所述相应先前图像由所述相机在采集所述代表性图像之前采集;以及,用于在从显示所述代表性图像转变到显示所述相应先前图像之后以所述相应先前图像开始顺序显示由所述相机在采集所述代表性图像之前采集的所述一个或多个图像中的至少一些图像和由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像的部件。
可选地,从显示所述代表性图像转变到显示所述相应先前图像包括顺序显示由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像,并且之后利用所述相应先前图像来替代对在采集所述代表性图像之后采集的相应后续图像的显示。
可选地,从显示所述代表性图像转变到显示所述相应先前图像包括利用所述相应先前图像来替代对所述代表性图像的显示。
可选地,从显示所述代表性图像转变到显示所述相应先前图像包括:根据所述第一输入的所述第一部分满足第一回放准则的确定,顺序显示由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像,并且之后利用所述相应先前图像来替代对在采集所述代表性图像之后采集的相应后续图像的显示;以及根据所述第一输入的所述第一部分满足与第一回放准则不同的第二回放准则的确定,利用所述相应先前图像来替代对所述代表性图像的显示。
可选地,所述设备包括用于检测与所述触敏表面的接触的强度的一个或多个传感器;所述第一输入包括在所述触敏表面上的接触;所述第一回放准则包括当所述接触具有高于第一强度阈值的特征强度时被满足的准则;并且所述第二回放准则包括当所述接触具有高于比所述第一强度阈值更大的第二强度阈值的特征强度时被满足的准则。
可选地,所述第一输入是按下并保持手势。
可选地,以固定速率以所述相应先前图像开始顺序显示由所述相机在采集所述代表性图像之前采集的所述一个或多个图像和由所述相机在采集所述代表性图像之后采集的所述一个或多个图像。
可选地,该装置包括:用于呈现与所述图像序列相对应的音频的部件。
可选地,该装置包括:用于在检测到所述第一输入的所述第一部分之后检测所述第一输入的第二部分的部件;以及用于响应于检测到所述第一输入的所述第二部分而顺序显示由所述相机在采集所述代表性图像之前采集的所述一个或多个图像中的至少一些图像和由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像的部件。
可选地,该装置包括:用于响应于检测到所述第一输入的所述第二部分而显示与所述图像序列相对应的元数据的部件。
可选地,该装置包括:用于检测所述第一输入的终止的部件;以及用于响应于检测到所述第一输入的终止而显示所述代表性图像的部件。
可选地,该装置包括:用于当显示所述图像序列中的第一图像时检测所述第一输入的终止的部件;以及,响应于当显示所述图像序列中的所述第一图像时检测到所述第一输入的终止:用于根据所述第一图像出现在所述图像序列中的所述代表性图像之前的确定来按时间顺序来顺序显示从所述第一图像到所述代表性图像的图像的部件,以及用于根据所述第一图像出现在所述图像序列中的所述代表性图像之后的确定来按反向时间顺序来顺序显示从所述第一图像到所述代表性图像的图像的部件。
可选地,所述图像序列被配置为在前向方向或反向方向上以循环方式被顺序显示,并且所述装置包括:用于当显示所述图像序列中的第一图像时检测所述第一输入的终止的部件;以及,响应于当显示所述图像序列中的所述第一图像时检测到所述第一输入的终止:用于根据当所述循环在所述前向方向上被遍历时在所述第一图像与所述代表性图像之间存在较少图像的确定来在所述前向方向上顺序显示从所述第一图像到所述代表性图像的图像的部件,以及用于根据当所述循环在所述反向方向上被遍历时在所述第一图像与所述代表性图像之间存在较少图像的确定来在所述反向方向上顺序显示从所述第一图像到所述代表性图像的图像的部件。
根据一些实施例,一种电子设备包括:显示单元,其被配置为显示实时预览;相机单元,其被配置为采集图像;以及处理单元,其与显示单元和相机单元耦合。处理单元被配置为当处于用于相机单元的第一媒体采集模式中时在显示单元上显示实时预览。处理单元还被配置为当显示实时预览时检测在第一时间处对快门按钮的激活,并且响应于检测到在第一时间处对快门按钮的激活,将由相机单元在与在第一时间处对快门按钮的激活接近的时间上采集的多个图像分组到第一图像序列中。第一图像序列包括:由相机单元在检测到在第一时间处对快门按钮的激活之前采集的多个图像;代表性图像,该代表第一图像序列并且由相机单元在第一图像序列中的其他图像中的一个或多个之后采集;以及由相机单元在采集代表性图像之后采集的多个图像。
根据一些实施例,一种电子设备包括:显示单元,其被配置为显示图像;触敏表面单元,其被配置为检测用户输入;以及处理单元,其与显示单元和触敏表面单元耦合。处理单元被配置为在显示单元上显示代表性图像。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。处理单元还被配置为当在显示单元上显示代表性图像时检测第一输入的第一部分。处理单元还被配置为响应于检测到第一输入的第一部分利用在显示单元上由相机在采集代表性图像之后采集的一个或多个图像的顺序显示来替代代表性图像的显示。处理单元还被配置为在检测到第一输入的第一部分之后检测第一输入的第二部分。处理单元还被配置为响应于检测到第一输入的第二部分,在显示单元上顺序显示由相机在采集代表性图像之前采集的一个或多个图像、代表性图像和由相机在采集代表性图像之后采集的一个或多个图像。
根据一些实施例,一种电子设备包括:显示单元,其被配置为显示图像;触敏表面单元,其被配置为检测用户输入;以及处理单元,其与显示单元和触敏表面单元耦合。处理单元被配置为在显示单元上使得能够显示代表性图像。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。处理单元还被配置为当在显示单元上使得能够显示代表性图像时检测第一输入的第一部分。处理单元还被配置为响应于检测到第一输入的第一部分:从显示代表性图像转变到显示图像序列中的相应先前图像,其中该相应先前图像是由相机在采集代表性图像之前采集的;并且在从显示代表性图像转变到显示相应先前图像之后,以相应先前图像开始顺序使得能够显示由相机在采集代表性图像之前采集的一个或多个图像中的至少一些图像和由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像。
根据一些实施例,一种电子设备包括:显示单元,其被配置为显示图像;触敏表面单元,其被配置为检测用户输入;一个或多个传感器单元,其被配置为检测与触敏表面单元的接触的强度;以及处理单元,其与显示单元、触敏表面单元和一个或多个传感器单元耦合。处理单元被配置为在显示单元上使得能够显示代表性图像。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。处理单元还被配置为当在显示单元上使得能够显示代表性图像时检测第一输入,其包括检测触敏表面单元上的接触的特征强度到大于第一强度阈值的第一强度的增加。处理单元还被配置为响应于检测到接触的特征强度的增加,在第一方向上以至少部分基于第一强度确定的速率推进通过由相机在采集代表性图像之后采集的一个或多个图像。处理单元还被配置为在以至少部分基于第一强度确定的速率推进通过由相机在采集代表性图像之后采集的一个或多个图像之后,检测接触的强度到小于第一强度的第二强度的减小。处理单元还被配置为响应于检测到接触的特征强度到第二强度的减小,根据第二强度高于第一强度阈值的确定,在第一方向上以第二速率继续推进通过由相机在采集代表性图像之后采集的一个或多个图像。第二速率至少部分基于第二强度来确定,并且第二速率比第一速率慢。处理单元还被配置为响应于检测到接触的特征强度减小到第二强度,根据第二强度低于第一强度阈值的确定,在与第一方向相反的第二方向上以至少部分基于第二强度确定的速率移动通过由相机在采集代表性图像之后采集的一个或多个图像。
根据一些实施例,一种电子设备包括:显示单元,其被配置为显示图像;触敏表面单元,其被配置为检测用户输入;存储器单元,其被配置为存储图像;以及处理单元,其与显示单元、存储器单元以及触敏表面单元耦合。处理单元被配置为在存储器单元中存储多个图像序列。相应图像序列包括由相机拍摄的相应代表性图像、由相机在采集相应代表性图像之后采集的一个或多个图像以及由相机在采集相应代表性图像之前采集的一个或多个图像。处理单元还被配置为在显示单元上将用于第一图像序列的第一代表性图像显示在显示单元上的可移动第一区域中。处理单元还被配置为检测触敏表面单元上的拖拽手势。处理单元还被配置为根据拖拽手势处于触敏表面单元上的第一方向上的确定:在可移动第一区域中,利用在显示单元上对由相机在采集用于第一图像序列的第一代表性图像之后采集的用于第一图像序列的一个或多个图像中的至少一些图像按时间顺序的显示来替代用于第一图像序列的第一代表性图像的显示,并且在显示单元上将第一区域在第一方向上移动。
根据一些实施例,一种电子设备包括:显示单元,其被配置为显示图像;触敏表面单元,其被配置为检测用户输入;以及处理单元,其与显示单元和触敏表面单元耦合。处理单元被配置为存储多个图像序列。相应图像序列包括由相机拍摄的相应代表性图像以及由相机在采集相应代表性图像之前采集的一个或多个图像。处理单元还被配置为在显示单元上的可移动第一区域中使得能够显示用于第一图像序列的第一代表性图像。处理单元还被配置为检测触敏表面单元上的手势,该手势包括通过与在显示单元上的第一方向上的移动相对应的接触的移动。处理单元还被配置为响应于检测到触敏表面单元上的手势:在显示单元上将第一区域在第一方向上移动;在显示单元上将可移动第二区域在第一方向上移动;并且根据序列显示准则被满足的确定,当将第二区域在第一方向上移动时,在第二区域中使得能够显示由相机在采集用于第二图像序列的第二代表性图像之前采集的用于第二图像序列的一个或或多个图像中的至少一些图像按时间顺序。
根据一些实施例,一种电子设备包括:显示单元,其被配置为显示图像;触敏表面单元,其被配置为检测用户输入;存储器单元,其被配置为存储图像;以及处理单元,其与显示单元、存储器单元以及触敏表面单元耦合。处理单元被配置为在存储器单元中存储多个图像序列。相应图像序列包括由相机拍摄的相应代表性图像、由相机在采集相应代表性图像之后采集的一个或多个图像以及由相机在采集相应代表性图像之前采集的一个或多个图像。处理单元还被配置为在存储器单元中存储与多个图像序列中的图像完全不同的多个图像。多个图像中的相应图像不是多个图像序列中的图像序列的部分。处理单元被配置为在显示单元上显示第一图像。处理单元还被配置为当在显示单元上显示第一图像时检测第一输入。处理单元还被配置为响应于检测到第一输入:根据第一图像是第一图像序列中的图像的确定,执行第一操作包括在显示单元上显示第一图像序列中的在第一图像以外的图像中的至少一些图像。处理单元还被配置为包括根据第一图像是与多个图像序列中的图像完全不同的多个图像中的图像的确定,执行涉及第一图像的与第一操作完全不同的第二操作。
根据一些实施例,一种电子设备包括:显示单元,其被配置为显示图像;触敏表面单元,其被配置为检测用户输入;以及处理单元,其与显示单元和触敏表面单元耦合。处理单元被配置为在显示单元上使得能够显示代表性图像。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。处理单元还被配置为当在显示单元上使得能够显示代表性图像时检测用于修改代表性图像的输入。处理单元被配置为检测到用于修改代表性图像的输入:根据该设备处于第一编辑模式中的确定,修改代表性图像、由相机在采集代表性图像之后采集的一个或多个图像以及由相机在采集代表性图像之前采集的一个或多个图像;并且,根据处于与第一编辑模式完全不同的第二编辑模式中的确定,修改代表性图像,而不修改由相机在采集代表性图像之后采集的一个或多个图像,并且不修改由相机在采集代表性图像之前采集的一个或多个图像。
根据一些实施例,一种电子设备包括:显示单元,其被配置为显示图像;以及处理单元,其与显示单元耦合。处理单元被配置为在显示单元上使得能够将代表性图像显示在被配置为与其他电子设备通信的应用的用户界面中。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。处理单元还被配置为当在显示单元上使得能够显示代表性图像时检测与用于发送代表性图像的请求或用于选择用于使用应用发送到在电子设备的远程的第二电子设备的代表性图像的请求相对应的输入。处理单元还被配置为响应于检测到与用于发送代表性图像的请求或用于选择用于使用应用发送到第二电子设备的代表性图像的请求相对应的输入:根据第二电子设备被配置为将图像序列作为一组与之交互的确定,使得能够显示用于将图像序列的至少部分发送到第二电子设备的第一选项集合;并且根据第二电子设备未被配置为将图像序列作为一组与之交互的确定,使得能够显示用于将图像序列的至少部分发送到第二电子设备的第二选项集合,其中第二选项集合与第一选项集合不同。
根据一些实施例,一种电子设备包括:显示单元,其被配置为显示图像;相机单元,其被配置为采集图像;以及处理单元,其与显示单元和相机单元耦合。处理单元被配置为当处于用于相机单元的第一媒体采集模式中时在显示单元上使得能够显示场景的实时预览并执行对场景的场景识别。处理单元被配置为当使得能够显示实时预览时检测在第一时间处对快门按钮的单次激活。处理单元被配置为响应于检测到在第一时间处对快门按钮的单次激活,根据场景满足动作捕获准则的确定,至少部分基于对场景执行的场景识别,保留由相机单元在与在第一时间处对快门按钮的激活接近的时间上采集的多个图像并将多个图像分组到第一图像序列中。第一图像序列包括:由相机单元在检测到在第一时间处对快门按钮的激活之前采集的多个图像;代表性图像,该代表第一图像序列并且由相机在第一图像序列中的其他图像中的一个或多个之后采集;以及由相机单元在采集代表性图像之后采集的多个图像。处理单元被配置为响应于检测到在第一时间处对快门按钮的单次激活,根据场景不满足动作捕获准则的确定,保留在时间上接近在第一时间处对快门按钮的激活的单个图像。
根据一些实施例,一种电子设备包括:显示单元,其被配置为显示图像;触敏表面单元,其被配置为检测用户输入;以及处理单元,其与显示单元和相机单元耦合。处理单元被配置为在显示单元上使得能够显示图像。该图像是由相机拍摄的图像序列中的一个图像。图像序列包括代表性图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。处理单元还被配置为当在显示单元上使得能够显示图像序列中的图像时检测第一输入。处理单元还被配置为响应于检测到第一输入:使得能够显示用于将图像序列剪辑为图像序列的少于全部的子集的用户界面。该用户界面包括:包含图像序列中的图像的表示的区域;用户可调节的开始剪辑图标,其经由开始剪辑图标在包含图像序列中的图像的表示的区域中的位置来界定图像序列的子集中的开始图像;以及用户可调节的结束剪辑图标,其经由结束剪辑图标在包含图像序列中的图像的表示的区域中的位置来界定图像序列的子集中的结束图像。开始剪辑图标被定位在包含图像序列中的图像的表示的区域中的由该设备自动选择的第一位置处。结束剪辑图标被定位在包含图像序列中的图像的表示的区域中的由该设备自动选择的第二位置处。处理单元还被配置为当使得能够显示用于剪辑图像序列的用户界面时检测第二输入。处理单元还被配置为响应于检测到第二输入根据开始剪辑图标的当前位置和结束剪辑图标的当前位置来将图像序列剪辑为图像序列的子集。
根据一些实施例,一种电子设备包括:显示器、触敏表面、用于检测与触敏表面的接触的强度的一个或多个可选传感器、一个或多个处理器、存储器、以及一个或多个程序;一个或多个程序被存储在存储器中并被配置为由一个或多个处理器运行并且一个或多个程序包括用于执行本文中描述的方法中的任何的操作或引发对本文中描述的方法中的任何的操作的执行的指令。根据一些实施例,一种计算机可读存储介质具有存储在其中的指令,指令当由具有显示器、触敏表面以及用于检测与触敏表面的接触的强度的一个或多个可选传感器的电子设备运行时使得该设备执行本文中描述的方法中的任何的操作或引发对本文中描述的方法中的任何的操作的执行。根据一些实施例,一种在具有显示器、触敏表面、用于检测与触敏表面的接触的强度的一个或多个可选传感器、存储器以及用于运行存储在存储器中的一个或多个程序的一个或多个处理器的电子设备上的图形用户界面包括在本文中描述的方法中的任何中显示的元素中的一个或多个,如本文中描述的方法中的任何中所描述的,元素中的一个或多个响应于输入而被更新。根据一些实施例,一种电子设备包括:显示器、触敏表面以及用于检测与触敏表面的接触的强度的一个或多个可选传感器;以及用于执行本文中描述的方法中的任何的操作或引发对本文中描述的方法中的任何的操作的执行的单元。根据一些实施例,一种用于在具有显示器和触敏表面以及用于检测与所述触敏表面的接触的强度的一个或多个可选传感器的电子设备中使用的信息处理装置包括用于执行本文中描述的方法中的任何的操作或引发对本文中描述的方法中的任何的操作的执行的单元。
因此,提供了具有用于捕获由相机拍摄或记录的片刻并与由相机拍摄或记录的片刻交互的改进的方法和界面的电子设备。这样的方法和界面可以补充或替代用于捕获静止图像和视频并与静止图像和视频交互的传统方法。
附图说明
为了更好地理解各种描述的实施例,结合附图对下面的实施例的描述进行引用,在附图中类似的附图标记指代各附图中的对应部分。
图1A是图示了根据一些实施例的具有触敏显示器的便携式多功能设备的框图。
图1B是图示了根据一些实施例的用于事件处理的示例性组件的框图。
图2图示了根据一些实施例的具有触摸屏的便携式多功能设备。
图3是图示了根据一些实施例的具有显示器和触敏表面的示例性多功能设备的框图。
图4A图示了根据一些实施例的用于便携式多功能设备上的应用的菜单的示例性用户界面。
图4B图示了根据一些实施例的用于具有与显示器分离的触敏表面的多功能设备的示例性用户界面。
图4C-4E图示了根据一些实施例的示例性动态强度阈值。
图5A-5K图示了根据一些实施例的用于捕获经分组的相关图像序列的示例性用户界面。
图6A-6FF图示了根据一些实施例的用于显示(或重放)经分组的相关图像序列的示例性用户界面。
图7A-7CC图示了根据一些实施例的用于导航通过相关图像序列的示例性用户界面。
图8A-8L图示了根据一些实施例的对相关图像序列执行与个体图像相比较完全不同的操作的示例性用户界面。
图9A-9G是图示了根据一些实施例的捕获经分组的相关图像序列的方法的流程图。
图10A-10E是图示了根据一些实施例的显示(重放)相关图像序列的方法的流程图。
图10F-10I是图示了根据一些实施例的显示(重放)相关图像序列的方法的流程图。
图10J-10M是图示了根据一些实施例的显示(重放)相关图像序列的方法的流程图。
图11A-11E是图示了根据一些实施例的导航通过相关图像序列的方法的流程图。
图11F-11I是图示了根据一些实施例的导航通过相关图像序列的方法的流程图。
图12A-12B是图示了根据一些实施例的对相关图像序列执行与个体图像相比完全不同的操作的方法的流程图。
图13-19是根据一些实施例的电子设备的功能框图。
图20A-20L图示了根据一些实施例的用于修改图像序列中的图像的示例性用户界面。
图21A-21J图示了根据一些实施例的用于将来自图像序列的图像发送到第二电子设备的示例性用户界面。
图22A-22D图示了根据一些实施例的用于使用场景识别来采集照片(例如,增强型照片或静止照片)的示例性用户界面。
图23A-23E图示了根据一些实施例的用于剪辑图像序列(例如,增强型照片)的示例性用户界面。
图24A-24E图示了根据一些实施例的修改图像序列中的图像的方法的流程图。
图25A-25C图示了根据一些实施例的将来自图像序列的图像发送到第二电子设备的方法的流程图。
图26A-26D图示了根据一些实施例的使用场景识别来采集照片(例如,增强型照片或静止照片)的方法的流程图。
图27A-27E图示了根据一些实施例的剪辑图像序列(例如,增强型照片)的方法的流程图。
图28-31是根据一些实施例的电子设备的功能框图。
具体实施方式
如以上所提到的,便携式电子设备通常捕获两种类型的数字内容:静止图像和视频。静止图像通常通过简单地按下快门按钮来捕获。静止图像冻结时间上的某一时刻(instant),但是围绕该时刻的瞬间或片刻(moment)的细节丢失。视频记录延伸的时间段,其可以包括有趣的片刻和不是那么有趣的片刻两者。通常需要重大的编辑以去除不太有趣的片刻。
因此,描述了用于捕获片刻并与片刻交互的新的且改进的设备和方法。
在一些实施例中,响应于对快门按钮的按下,该设备将包括代表性图像(类似于在传统静止图像中捕获的时刻)以及在快门按钮被按下之前采集(acquire)的图像和在代表性图像之后采集的图像的图像序列分组在一起。因此,对快门按钮的按下捕获在时间上的某一时刻附近的片刻,而非仅仅该时刻。在一些实施例中,还捕获关于该片刻的额外信息,例如声音和元数据。从用户的角度,该过程使捕获片刻(包括代表性图像的经分组的图像序列)与捕获时刻(单个静止图像)一样容易,用户仅仅需要按下快门按钮。为了与单个静止图像进行区分,术语“增强型照片”有时出于简洁被用于指代经分组的图像序列。
在一些实施例中,当查看代表性图像时,增强型照片可以“活灵活现”并且响应于用户输入(例如,在增强型照片上的按下并保持手势或深度按下手势)重放片刻。
在一些实施例中,当在各增强型照片之间进行导航时,针对相应增强型照片,刚好在增强型照片的代表性图像之前拍摄的图像被示出为在显示器上进入视图中的增强型照片,并且/或者刚好在代表性图像之后拍摄的图像被示出为离开显示器的增强型照片,这增强对片刻的显示。
在一些实施例中,当在增强型照片和传统静止图像之间进行导航时,增强型照片当进入视图中和/或离开显示器时被“重放”,同时针对传统静止图像,当静止图像被显示时示出静止图像内的额外信息(例如,位置数据)和/或动画。
在一些实施例中,用户可以修改增强型照片中的代表性图像并且使修改被应用到仅仅代表性图像或被应用到增强型照片中的所有图像(例如,用户可以在应用到所有模式和静止图像编辑模式之间进行切换)。
在一些实施例中,当相应用户将增强型照片发送到另一用户时,相应用户的设备取决于其他用户的设备是否与增强型照片兼容而呈现用于发送增强型照片的不同选项(例如,当其他用户的设备与增强型照片兼容时呈现用于将增强型照片作为增强型照片发送的选项,并且当其他用户的设备与增强型照片不兼容时呈现用于仅仅发送代表性图像的选项)。
在一些实施例中,该设备(例如,当处于图像捕获模式中时)执行场景识别。当场景有利于保留增强型照片(例如,场景包括移动或面部),则响应于对快门按钮的按下,该设备保留增强型照片。当场景不利于保留增强型照片(例如,场景是收据的图片),则响应于对快门按钮的按下,该设备保留单个静止图像。
在一些实施例中,用户可以将图像序列剪辑(trim)为图像序列的子集。该设备提供用于(例如,基于场景识别)在序列中的自动挑选位置处剪辑序列的柄部。该柄部也可以被用于手动地剪辑序列。
下面,图1A-1B、2和3提供对示例性设备的描述。图4A-4B、5A-5K、6A-6FF、7A-7CC、8A-8L、20A-20L、21A-21J、22A-22D和23A-23E图示了用户捕获相关图像序列、导航相关图像序列并对相关图像序列执行操作或执行与相关图像序列相关的操作的示例性用户界面。图9A-9G是图示了根据一些实施例的捕获相关图像序列的方法的流程图。图10A-10M是图示了根据一些实施例的显示(重放)相关图像序列的方法的流程图。图11A-11I是图示了根据一些实施例的导航通过包括相关图像序列的照片的方法的流程图。图12A-12B是图示了根据一些实施例的对包括相关图像序列的照片执行与静止照片相比较完全不同的操作的方法的流程图。图24A-24E是根据一些实施例的修改图像序列中的图像的方法的流程图。图25A-25C是根据一些实施例的将来自图像序列的图像发送到第二电子设备的方法的流程图。图26A-26D是根据一些实施例的使用场景识别来采集照片(例如,增强型照片或静止照片)的方法的流程图。图27A-27E是根据一些实施例的剪辑图像序列(例如,增强型照片)的方法的流程图。图5A-5K、6A-6FF、7A-7CC、8A-8L、20A-20L、21A-21J、22A-22D和23A-23E中的用户界面被用于说明图9A-9G、10A-10M、11A-11I、12A-12B、24A-24E、25A-25C、26A-26D和27A-27E中的过程。
示例性设备
现在将具体参照实施例,在附图中图示这些实施例的示例。在以下具体描述中,阐述许多具体细节以便提供对各个所描述的实施例的透彻理解。然而,本领域普通技术人员将清楚,在没有这些具体细节的情况下仍可实现各个所描述的实施例。在其它实例中,尚未具体描述熟知的方法、过程、组件、电路和网络以免不必要地模糊实施例的方面。
也将理解,虽然术语第一、第二等在一些示例中在这里被用来描述各种要素,但是这些要素不应受这些术语限制。这些术语仅用来区分一个要素和另一要素。例如第一接触可以被称为第二接触并且第二接触相似地可以称为第一接触而未脱离各个所描述的实施例的范围。第一接触和第二接触都是接触,但是它们不是相同的接触,除非上下文另外明确指出。
各种描述的实施例的描述中所使用的术语在本文中仅用于描述具体实施例,并不旨在限制。各种描述的实施例的描述以及所附权利要求书中所使用的单数形式“一”、“一个”和“所述”旨在也包括复数形式,除非上下文明确给出相反指示。还应当理解,本文所使用的术语“和/或”是指代并且涵盖相关联列出的项目的一个或多个条目中的任何项目以及所有可能的组合。进一步应当理解,术语“包括”、“具有”、“包含”和/或“含有”在本说明书中使用时规定了特征、整体、步骤、操作、元件和/或部分的存在,但并不排除一个或多个其他特征、整体、步骤、操作、元件、组件和/或它们的组合的存在或添加。
如在这里使用的,术语“如果”取决于上下文而可选地被解读为表示“在…时”或“一旦…则”或者“响应于确定”或“响应于检测”。类似地,短语“如果确定”或“如果检测到[一定的条件或事件]”取决于上下文可选地被解读为表示“一旦确定,则”或“响应于确定”或者“一旦检测到[一定的条件或事件]”或“响应于检测到[一定的条件或事件]”。
对电子设备、用于这种设备的用户界面以及用于使用此类设备的相关联过程的实施例进行描述。在一些实施例中,设备是便携式通信设备(诸如移动电话),其还包含其他功能,诸如PDA和/或音乐播放器功能。便携式多功能设备的示例性实施例包括但不限于:来自加利福尼亚州、库比蒂诺的Apple公司的iPod设备。诸如具有触敏表面(例如,触摸屏显示器和/或触摸板)的膝上型计算机或平板计算机之类的其他便携式电子设备也可以被使用。还应当理解的是,在一些实施例中,该设备不是便携式通信设备,而是具有触敏表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在以下论述中,描述了一种包括显示器和触敏表面的电子设备。然而,应当理解的是,该计算设备可以包括一个或多个其他物理用户界面设备,诸如物理键盘、鼠标和/或操纵杆。
所述设备通常支持各种应用,诸如以下应用中的一个或多个应用:做笔记应用、绘图应用、演示应用、文字处理应用、网站创建应用、盘编写应用、电子表格应用、游戏应用、电话应用、视频会议应用、电子邮件应用、即时消息应用、锻炼支持应用、照片管理应用、数码相机应用、数码录像机应用、网页浏览应用、数字音乐播放器应用和/或数字视频播放器应用。
在设备上执行的各种应用可选地使用至少一个公共物理用户界面设备,诸如触敏表面。触敏表面的一个或多个功能以及在设备上显示的对应信息从一个应用向下一个应用和/或在各自应用中进行可选地调整和/或改变。以此方式,设备的公共物理架构(诸如触敏表面)通过对于用户而言直观、透明的用户界面来可选地支持各种应用。
现在将关注转向具有触敏显示器的便携式设备的实施例。图1A是图示根据一些实施例的具有触敏显示系统112的便携式多功能设备100的框图。触敏显示系统112有时被称作“触摸屏”,并且有时被简单地称作触敏显示器。设备100包括存储器102(其可选地包括一个或多个计算机可读存储介质)、存储器控制器122、一个或多个处理单元(CPU)120、外围接口118、RF电路装置108、音频电路装置110、扬声器111、麦克风113、输入/输出(I/O)子系统106、其他输入或控制设备116以及外部端口124。设备100可选地包括一个或多个光学传感器164。设备100可选地包括用于检测设备100(例如,触敏表面,诸如设备100的触敏显示系统112)上接触强度的一个或者强度传感器165。设备100可选地包括用于在设备100上产生触觉输出的一个或者多个触觉输出生成器167(例如,在诸如设备100的触敏显示系统112或者设备300的触摸板335的触敏表面上产生触觉输出)。这些组件可选地通过一个或多个通信总线或信号线路103进行通信。
如说明书和权利要求中所使用的,术语“触觉输出”指代将由用户使用该用户的触感检测到的设备相对于设备的之前位置的物理位移、设备的组件(例如,触敏表面)相对于设备的另一组件(例如,外壳)的物理位移或者组件相对于设备的重心的位移。例如,在设备或者设备的组件与对触摸敏感的用户表面(例如,手指、手掌或者用户手的其他部分)接触的情况下,由物理位移产生的触觉输出将由用户解读为对应于感受到的设备或者设备组件的物理特性中的改变的触感。例如,触敏表面(例如,触敏显示器或者触控板(trackpad))的移动可选地由用户解读为物理致动器按钮的“按下点击”或者“抬起点击”。在一些情况下,即使当不存在与由用户的移动物理地按压(例如位移)的触敏表面相关联的物理致动器按钮的运动时,用户将感受到触感,诸如“按下点击”或者“抬起点击”。作为另一示例,即使当触敏表面的平滑度没有改变时,触敏表面的运动可选地由用户解读或者感受为触敏表面的“粗糙度”。虽然由用户对触摸的这种解读将受到用户的个性化的感官知觉的影响,但是存在对大多数用户共同的许多点触摸的感官知觉。因此,当触觉输出被描述为对应于用户的特定感官知觉(例如,“抬起点击”、“按下点击”、“粗糙度”)时,除非明确给出相反指示,否则所产生的触觉输出将对应于设备或者其组件的物理位移,其将产生所描述的对于典型的(或者平均的)用户的感官知觉。
应当理解,设备100仅是便携式多功能设备的一个示例,并且设备100可选地具有比所示组件更多或更少的组件,可选地组合两个或更多组件,或者可选地具有不同的组件配置或布置。图1A中所示出的各个组件可以在硬件、软件、或硬件和软件的组合、包括一个或多个信号处理和/或专用集成电路中实现。
存储器102可选地包括高速随机存取存储器,并且可选地还包括非易失性存储器,诸如一个或多个磁盘存储设备、闪存设备或其他非易失性固态存储器设备。设备100的其他组件(诸如(一个或多个)CPU 120和外围接口118)对存储器102的访问可选地通过存储器控制器122来控制。
外围接口118可以用于将设备的输入和输出外围耦合至(一个或多个)CPU 120和存储器102。一个或多个处理器120运行或执行存储器102中存储的各种软件程序和/或指令集,以执行用于设备100的各种功能以及用于处理数据。
在一些实施例中,外围接口118、(一个或多个)CPU 120以及存储器控制器122可选地在单个芯片(诸如,芯片104)上实现。在一些其他实施例中,它们可选地在分离的芯片上实现。
RF(射频)电路装置108接收并且发送RF信号,也被称作电磁信号。RF电路装置108将电信号转换成电磁信号/将电磁信号转换成电信号,并且经由电磁信号与通信网络以及其他通信设备进行通信。RF电路装置108可选地包括用于执行这些功能的已知电路装置,包括但不限于:天线系统、RF收发机、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、CODEC芯片集、客户标识模块(SIM)卡、存储器等。RF电路装置108可选地通过无线通信,与诸如也称为万维网(WWW)的互联网、内联网和/或诸如蜂窝式电话网络、无线局域网(LAN)和/或城域网(MAN)的无线网络以及其他设备进行通信。无线通信可选地使用多种通信标准、协议和技术中的任何一种,包括但不限于:全球移动通信系统(GSM)、增强型数据GSM环境(EDGE)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、仅演进数据(EV-DO)、HSPA、HSPA+、双小区HSPA(DC-HSPDA)、长期演进(LTE)、近场通信(NFC)、宽带码分多址(W-CDMA)、码分多址(CDMA)、时分多址(TDMA)、蓝牙、无线高保真(Wi-Fi)(例如,IEEE 802.11a、IEEE802.11ac、IEEE 802.11ax、IEEE 802.11b、IEEE 802.11g和/或IEEE802.11n)、互联网协议语音(VoIP)、Wi-MAX、针对电子邮件的协议(例如,互联网消息访问协议(IMAP)和/或邮局协议(POP))、即时消息(例如,可扩展消息收发和现场协议(XMPP)、针对即时消息和现场平衡扩展的会话发起协议(SIMPLE)、即时消息和现场服务(IMPS))和/或短消息服务(SMS),或者任何其他适当的通信协议,包括在此文档递交日为止还未开发出的通信协议。
音频电路装置110、扬声器111和麦克风113在用户与设备100之间提供音频接口。音频电路装置110从外围接口118接收音频数据,将该音频数据转换成电信号,并且向扬声器111传输该电信号。扬声器111将该电信号转换成人类可听见的声波。音频电路装置110还接收由麦克风113从声波转换的电信号。音频电路装置110将电信号转换成音频数据并且向外围接口118传输该音频数据用于处理。音频数据可选地通过外围接口118从存储器102和/或RF电路装置108获取和/或向存储器102和/或RF电路装置108传输。在一些实施例中,音频电路装置110还包括耳机插孔(例如,图2中的212)。耳机插孔在音频电路装置110与可移除音频输入/输出外围设备(诸如只有输出的受话器或既能输出(例如,单耳或双耳的受话器)又能输入(例如,麦克风)的耳机)之间提供接口。
I/O子系统106将设备100上的输入/输出外围设备(诸如触摸屏112和其他输入控制设备116)耦合至外围接口118。I/O子系统106可选地包括显示器控制器156、光学传感器控制器158、强度传感器控制器159、触觉反馈控制器161以及针对其他输入或控制设备的一个或多个输入控制器160。该一个或多个输入控制器160从其他输入或控制设备116接收电信号/向其他输入或控制设备116发送电信号。其他输入或控制设备116可选地包括物理按钮(例如,下压按钮、摇杆按钮等)、拨号盘、滑动开关、操纵杆、点击式转盘等。在一些备选实施例中,(一个或多个)输入控制器160可选地被耦合至以下各项中的任何项(或一个都没有):键盘、红外端口、USB端口以及诸如鼠标之类的定点设备。一个或多个按钮(例如,图2中的208)可选地包括针对扬声器111和/或麦克风113的音量控制的向上/向下按钮。所述一个或多个按钮可选地包括下压按钮(例如,图2中的206)。
触敏显示系统112在设备与用户之间提供输入接口和输出接口。显示器控制器156从触敏显示系统112接收电信号和/或向触敏显示系统112发送电信号。触敏显示系统112向用户显示视觉输出。该视觉输出可选地包括图形、文本、图标、视频以及上述各项的任何组合(统称为“图形”)。在一些实施例中,一些或所有视觉输出对应于用户界面对象。如本文中所使用的,术语“可供件(affordance)”是指用户交互图形用户界面对象(例如,被配置为对指向图形用户界面对象的输入做出响应的图形用户界面对象)。用户交互图形用户界面对象的示例包括但不限于按钮、滑动器、图标、可选择菜单项、开关或其他用户界面控件。
触敏显示系统112具有基于触感(haptic)和/或触觉(tactile)接触而从用户接受输入的触敏表面、传感器或传感器集。触敏显示系统112和显示器控制器156(连同存储器102中任何相关联的模块和/或指令集)检测触敏显示系统112上的接触(以及接触的任何移动或中断),并且将检测到的接触转换成与在触敏显示系统112上显示的用户界面对象(例如,一个或多个软按键、图标、网页或图像)的交互。在示例性实施例中,触敏显示系统112与用户之间的接触点对应于用户的手指或者触笔。
尽管其他实施例中使用其他显示技术,触敏显示系统112可选地使用LCD(液晶显示屏)技术、LPD(发光聚合物显示器)技术或LED(发光二极管)技术。触敏显示系统112和显示器控制器156可选地使用现在已知或以后开发的多种触摸感测技术的任何一种来检测接触以及接触的任何移动或中断,这些触摸感测技术包括但不限于:电容性的、电阻性的、红外和表面声波技术,以及其他接近传感器阵列或用于确定与触敏显示系统112的一个或多个接触点的其他元件。在示例性实施例中,使用投射式互电容感测技术,诸如在加利福尼亚州、库比蒂诺的Apple公司的和iPod中出现的技术。
触敏显示系统112可选地具有超过100dpi的视频分辨率。在一些实施例中,触摸屏视频分辨率超过400dpi(例如,500dpi、800dpi或者更大)。用户可选地使用诸如触笔、手指等之类的任何适当对象或附属物与触敏显示系统112进行接触。在一些实施例中,用户界面被设计成通过基于手指的接触和手势来工作,这与基于触笔的输入相比,由于手指在触摸屏上的接触面积更大而可能精确度更低。在一些实施例中,设备将基于手指的粗略的输入翻译成精确的指针/光标位置或命令,以执行用户所期望的动作。
在一些实施例中,除了触摸屏之外,设备100可选地还包括用于激活或去激活特定功能的触摸板。在一些实施例中,触摸板是设备的触敏区域,该触敏区域与触摸屏不同,其不显示视觉输出。触摸板可选地为与触敏显示系统112分开的触敏表面或者是由触摸屏形成的触敏表面的延伸。
设备100还包括用于对各种组件供电的电源系统162。电源系统162可选地包括电源管理系统、一个或多个电源(例如,电池、交流电(AC))、充电系统、电源故障检测电路、电源转换器或反相器、电源状态指示器(例如,发光二极管(LED))以及与便携式设备中的电源的生成、管理和分配有关的任何其他组件。
设备100可选地还包括一个或多个光学传感器164。图1A示出了被耦合到I/O子系统106中的光学传感器的控制器158的光学传感器。(一个或多个)光学传感器164可选地包括电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)光电晶体管。(一个或多个)光学传感器164接收通过一个或多个透镜投射的来自环境的光,并且将光转换成代表图像的数据。与成像模块143(也被称作相机模块)相结合,(一个或多个)光学传感器164可选地捕获静态图像、增强的照片和/或视频。在一些实施例中,光学传感器位于设备100的背面,与设备正面的触敏显示系统112相对,使得触摸屏被启用以用作静态和/或视频图像获取的取景器。在一些实施例中,另一光学传感器位于设备的正面,使得当用户查看触摸屏上的其他视频会议参与者时获得用户图像(例如,以用于自拍、以用于视频会议)。
设备100可选地还包括一个或者多个接触强度传感器165。图1A示出了与I/O子系统106中的强度传感器控制器159耦合的接触强度传感器。(一个或多个)接触强度传感器165可选地包括一个或者多个压阻应变仪、电容力传感器、静电力传感器、压电力传感器、光学力传感器、电容性触敏表面或者其他强度传感器(例如,用于在触敏表面上测量接触的力(或者压力)的传感器)。(一个或多个)接触强度传感器165从环境接收接触强度信息(例如,压力信息或者用于压力信息的替代)。在一些实施例中,至少一个接触强度传感器与触敏表面(例如,触敏显示系统112)并置或者靠近。在一些实施例中,至少一个接触强度传感器位于设备100的背面上,其与位于设备100的正面的触敏显示系统112相对。
设备100可选地还包括一个或多个接近传感器166。图1A示出了耦合至外围接口118的接近传感器166。备选地,接近传感器166与I/O子系统106中的输入控制器160耦合。在一些实施例中,当多功能设备处于用户的耳部附近时(例如,当用户正进行电话呼叫时),接近传感器关闭并且禁用触敏显示系统112。
设备100可选地还包括一个或者多个触觉输出生成器167。图1A示出了与I/O子系统106中的触感反馈控制器161耦合的触觉输出生成器。(一个或多个)触觉输出生成器167可选地包括一个或者多个电声设备(诸如,扬声器或者其他音频组件)和/或将电能转换成线性运动的机电设备(诸如,电机、螺线管、电有源聚合物、压电式致动器、静电致动器或者其他触觉输出生成组件(例如,将电信号转换成设备上的触觉输出的组件))。(一个或多个)触觉输出生成器167从触感反馈模块133接收触感反馈生成指令,并且在设备100上生成能够由设备100的用户感受的触感输出。在一些实施例中,至少一个触觉输出生成器与触敏表面(例如,触敏显示系统112)并置或者靠近,并且可选地通过垂直地(例如,设备100的表面中/外)或者横向地(在与设备100的表面相同的平面中往复)移动触敏表面来生成触感输出。在一些实施例中,至少一个触觉输出生成器传感器位于设备100的背面,其与位于设备100的正面的触摸屏显示器112相对。
设备100可选地还包括一个或多个加速度计168。图1A示出了耦合至外围接口118的加速度计168。备选地,加速度计168可以与I/O子系统106中的输入控制器160耦合。在一些实施例中,基于对从一个或多个加速度计接收的数据的分析而以纵向视图或者横向视图将信息显示在触摸屏显示器上。除了(多个)加速度计168之外,设备100可选地还包括磁力计(未示出)和GPS(或者GLONASS或者其他全球导航系统)接收器(未示出),以用于获得与设备100的位置和定向(例如,纵向或横向)有关的信息。
在一些实施例中,存储在存储器102中的软件组件包括操作系统126、通信模块(或指令集)128、接触/运动模块(或指令集)130、图形模块(或指令集)132、触感反馈模块(或指令集)133、文本输入模块(或指令集)134、全球定位系统(GPS)模块(或指令集)135以及应用(或指令集)136。此外,如图1A和图3所示,在一些实施例中,存储器102存储设备/全局内部状态157。设备/全局内部状态157包括以下各项中的一个或多个:活跃应用状态,指示哪些应用程序(如果有的话)当前是活跃的;显示器状态,指示什么应用、视图和其他信息占用触敏显示系统112的各个区域;传感器状态,包括从设备的各个传感器和其他输入或控制设备116获得的信息;以及与设备的位置和/或姿态有关的位置和/或定位信息。
操作系统126(例如,iOS、Darwin、RTXC、LINUX、UNIX、OS X、WINDOWS、或者诸如VxWorks的嵌入式操作系统)包括用于控制和管理一般系统任务(例如,存储器管理、存储设备控制、电源管理等)的各种软件组件和/或驱动器,并且促使各种硬件与软件组件之间的通信。
通信模块128在一个或多个外部端口124上促进与其他设备的通信,并且还包括用于处理由RF电路装置108和/或外部端口124接收的数据的各种软件组件。外部端口124(例如,通用串行总线(USB)、火线等)适于直接地耦合至其他设备或通过网络(例如,互联网、无线LAN等)间接地耦合至其他设备。在一些实施例中,外部端口是与一些用在来自加利福尼亚州、库比蒂诺的Apple公司的iPod设备中的30针连接器相同、相似和/或兼容的多针(例如,30针)连接器。在一些实施例中,外部端口是与一些用在来自加利福尼亚州、库比蒂诺的Apple公司的iPod设备中的闪电连接器相同、相似和/或兼容的闪电连接器。
接触/运动模块130可选地检测与触敏显示系统112(与显示器控制器156相结合)和其他触敏设备(例如,触摸板或物理点击式转盘)的接触。接触/运动模块130包括各种软件组件以用于执行与(例如手指或触笔的)接触的检测相关的各种操作,诸如确定是否发生了接触(例如,检测手指按下事件),确定接触强度(例如,接触的力或者压力,或者用于接触的力或者压力的替代),确定是否存在接触的运动并且跟踪跨触敏表面的运动(例如,检测一个或多个手指拖拽事件),以及确定接触是否已停止(例如,检测手指抬起事件或接触中断)。接触/运动模块130从触敏表面接收接触数据。确定(其由一系列接触数据所表示的)触点的移动,可选地包括确定触点的速率(量值)、速度(量值和方向)和/或加速度(量值和/或方向上的改变)。这些操作可选地应用于单个接触(例如,一个手指接触或者触笔接触)或者多个同时接触(例如,“多点触摸”/多个手指接触)。在一些实施例中,接触/运动模块130和显示器控制器156检测触摸板上的接触。
接触/运动模块130可选地检测由用户输入的手势。触敏表面上不同的手势具有不同的接触模式(例如,不同的运动、计时和/或检测的接触强度)。因此,手势可选地通过检测特定接触模式而被检测到。例如,检测手指轻击手势包括:检测手指按下事件、随后是在与该手指按下事件(例如,在图标位置)相同的位置(或者基本上相同的位置)检测手指向上(例如,抬离)事件。作为另一示例,检测触摸表面上的手指拖动手势包括:检测手指按下事件、随后是检测一个或多个手指拖拽事件、再随后是检测手指向上(抬离)事件。相似地,通过检测针对触笔的接触模式来针对触笔可选地检测轻击、拖动、拖拽和其他手势。
图形模块132包括用于在触敏显示系统112或其他显示器上渲染和显示图形的各种已知软件组件,包括用于改变所显示图形的视觉效果(例如,亮度、透明度、饱和度、对比度或者其他视觉属性)的组件。如本文所使用的,术语“图形”包括可以向用户显示的任何对象,包括但不限于:文本、网页、图标(诸如包括软按键的用户界面对象)、数字图像、视频、动画等。
在一些实施例中,图形模块132存储表示待使用图形的数据。每个图形被可选地分配对应的代码。图形模块132从应用等接收指定待显示图形的一个或多个代码,连同(如果有需要)坐标数据和其他图形属性数据,然后生成屏幕图像数据以向显示器控制器156输出。
触感反馈模块133包括如下各种软件组件,该软件组件用于响应于与设备100的用户交互,生成由(一个或多个)触觉输出生成器167用于在设备100上的一个或者多个位置处产生触感输出的指令。
文本输入模块134(其可选地是图形模块132的组件)提供用于将文本录入各种应用中(例如,联系人137、电子邮件140、IM 141、浏览器147和需要文本输入的任何其他应用)的软键盘。
GPS模块135确定设备的位置,并且提供此信息供各种应用使用(例如,提供给电话138以用于在基于位置的拨号中使用,提供给相机143作为图片/视频元数据,以及提供给基于位置的服务的应用,诸如天气微件、本地黄页微件和地图/导航微件)。
应用136可选地包括以下模块(或指令集)、或其子集或超集:
·联系人模块137(有时被称作地址簿或联系人列表);
·电话模块138;
·视频会议模块139;
·电子邮件客户端模块140
·即时消息(IM)模块141;
·锻炼支持模块142;
·用于静态和/或视频图像的相机模块143;
·图像管理模块144;
·浏览器模块147;
·日历模块148;
·微件模块149,其可选地包括以下各项中的一个或多个:天气微件149-1、股票微件149-2、计算器微件149-3、闹钟微件149-4、词典微件149-5以及由用户获得的其他微件,以及用户创建的微件149-6;
·微件创建器模块150,用于制作用户创建的微件149-6;
·搜索模块151;
·视频和音乐播放器模块152,其可选地由视频播放器模块和音乐播放器模块组成;
·备忘录模块153;
·地图模块154;和/或
·在线视频模块155。
可选地存储在存储器102中的其他应用136的示例包括其他文字处理应用、其他图像编辑应用、绘图应用、演示应用、支持JAVA功能的应用、加密、数字权限管理、语音识别和语音复制。
结合触敏显示系统112、显示器控制器156、接触模块130、图形模块132和文本输入模块134,联系人模块137包括用以管理(例如,被存储在存储器102或存储器370中的联系人模块137的应用内部状态192中的)地址簿或联系人列表的可执行指令,包括:将一个或多个姓名添加到地址簿中;从地址簿中删除一个或多个姓名;将一个或多个电话号码、一个或多个电子邮件地址、一个或多个物理地址或其他信息与姓名相关联;将图像与姓名相关联;对姓名进行分类和排序;提供电话号码和/或电子邮件地址以发起和/或促进通过电话138、视频会议139、电子邮件140或即时消息141的通信等。
结合RF电路装置108、音频电路装置110、扬声器111、麦克风113、触敏显示系统112、显示器控制器156、接触模块130、图形模块132和文本输入模块134,电话模块138包括用以以下的可执行指令:录入对应于电话号码的字符序列、访问地址簿模块137中的一个或多个电话号码、修改已经录入的电话号码、拨打相应的电话号码、进行会话以及当会话完成时断开连接或挂断。如上所述,无线通信可选地使用多种通信标准、协议和技术中的任何一种。
结合RF电路装置108、音频电路装置110、扬声器111、麦克风113、触敏显示系统112、显示器控制器156、(一个或多个)光学传感器164、光学传感器的控制器158、接触模块130、图形模块132、文本输入模块134、联系人列表137和电话模块138,视频会议模块139包括用于根据用户指令发起、进行和终止用户与一个或多个其他参与者之间的视频会议的可执行指令。
结合RF电路装置108、触敏显示系统112、显示器控制器156、接触模块130、图形模块132和文本输入模块134,电子邮件客户端模块140包括用于响应于用户指令创建、发送、接收和管理电子邮件的可执行指令。结合图像管理模块144,电子邮件客户端模块140使得非常容易创建和发送具有由相机模块143拍摄的静态图像或视频图像的电子邮件。
结合RF电路装置108、触敏显示系统112、显示器控制器156、接触模块130、图形模块132和文本输入模块134,即时消息模块141包括用于录入对应于即时消息的字符序列、用于修改先前录入的字符、用于传输相应的即时消息(例如,使用短消息服务(SMS)或多媒体消息服务(MMS)协议以用于基于电话的即时消息,或者使用XMPP、SIMPLE、苹果推送提醒服务(APNs)或IMPS以用于基于互联网的即时消息)、用于接收即时消息和查看所接收的即时消息的可执行指令。在一些实施例中,所传输和/或所接收的即时消息可选地包括在MMS和/或增强型消息收发服务(EMS)中所支持的图形、照片(例如,静态图像)、增强型照片、音频文件、视频文件和/或其他附件。如本文中所使用的,“即时消息”指代基于电话的消息(例如,使用SMS或MMS发送的消息)和基于互联网的消息(例如,使用XMPP、SIMPLE、APNs或IMPS的消息)。
结合RF电路装置108、触敏显示系统112、显示器控制器156、接触模块130、图形模块132、文本输入模块134、GPS模块135、地图模块154和音乐播放器模块146,锻炼支持模块142包括用于创建锻炼(例如,具有时间、距离和/或卡路里燃烧目标)的可执行指令;与(在运动设备和智能手表中的)锻炼传感器通信;接收锻炼传感器数据的可执行指令;校准用于监测锻炼的传感器的可执行指令;选择并且播放用于锻炼的音乐的可执行指令;以及显示、存储并且传输锻炼数据的可执行指令。
结合触敏显示系统112、显示器控制器156、(一个或多个)光学传感器164、光学传感器的控制器158、接触模块130、图形模块132和图像管理模块144,相机模块143包括用于捕获静态图像或视频(包括视频流)并且将它们存储到存储器102中,修改静态图像或视频的特性和/或从存储器102中删除静态图像或视频的可执行指令。
结合触敏显示系统112、显示器控制器156、接触模块130、图形模块132、文本输入模块134和相机模块143,图像管理模块144包括用于排列、修改(例如,编辑)、或操纵、标注、删除、呈现(例如,在数字幻灯片演示或相册中)以及存储静态和/或视频图像的可执行指令。
结合RF电路装置108、触敏显示系统112、显示系统控制器156、接触模块130、图形模块132和文本输入模块134,浏览器模块147包括用于根据用户指令浏览互联网(包括搜索、链接、接收和显示网页或网页的多个部分以及与被链接到网页的附件和其他文件)的可执行指令。
结合RF电路装置108、触敏显示系统112、显示系统控制器156、接触模块130、图形模块132、文本输入模块134、电子邮件客户端模块140和浏览器模块147,日历模块148包括用于根据用户指令创建、显示、修改和存储日历和与日历相关联的数据(例如,日历条目、待办事项列表等)的可执行指令。
结合RF电路装置108、触敏显示系统112、显示系统控制器156、接触模块130、图形模块132、文本输入模块134和浏览器模块147,微件模块149是可选地由用户下载和使用的小型应用(例如,天气微件149-1、股票微件149-2、计算器微件149-3、闹钟微件149-4和词典微件149-5),或者由用户创建的小型应用(例如,用户创建的微件149-6)。在一些实施例中,微件包括HTML(超文本标记语言)文件、CSS(层叠样式表)文件和JavaScript文件。在一些实施例中,微件包括XML(可扩充标记语言)文件和JavaScript文件(例如,Yahoo!微件)。
结合RF电路装置108、触敏显示系统112、显示器控制器156、接触模块130、图形模块132、文本输入模块134和浏览器模块147,微件创建器模块150包括包括用以创建微件(例如,将网页的用户指定部分转变成微件)的可执行指令。
结合触敏显示系统112、显示系统控制器156、接触模块130、图形模块132和文本输入模块134,搜索模块151包括用于根据用户指示搜索存储器102中与一条或多条搜索条件(例如,一个或多个用户指定的搜索项)匹配的文本、音乐、声音、图像、视频和/或其他文件的可执行指令。
结合触敏显示系统112、显示系统控制器156、接触模块130、图形模块132、音频电路装置110、扬声器111,RF电路装置108以及浏览器模块147,视频和音乐播放器模块152包括允许用户下载和回放录制的音乐以及以一个或多个文件格式存储的其他声音文件(诸如MP3或AAC文件)的可执行指令,并且包括用于(例如,在触敏显示系统112上或者在无线地或者经由外部端口124连接的外部显示器上)显示、呈现或者另外回放视频的可执行指令。在一些实施例中,设备100可选地包括诸如iPod(Apple公司的商标)的MP3播放器的功能。
结合触敏显示系统112、显示器控制器156、接触模块130、图形模块132和文本输入模块134,备忘录模块153包括根据用户指示创建并管理备忘录、待办事项列表等的可执行指令。
结合RF电路装置108、触敏显示系统112、显示系统控制器156、接触模块130、图形模块132、文本输入模块134、GPS模块135和浏览器模块147,地图模块154包括用以根据用户指示接收、显示、修改和存储地图以及与地图相关联的数据(例如,驾驶方向;关于在特定位置或附近的商店及其他兴趣点的数据;以及其他基于位置的数据)的可执行指令。
结合触敏显示系统112、显示系统控制器156、接触模块130、图形模块132、音频电路装置110、扬声器111、RF电路装置108、文本输入模块134、电子邮件客户端模块140和浏览器模块147,在线视频模块155包括允许用户访问、浏览、接收(例如,通过流传输和/或下载)、(例如,在触摸屏112上或在无线地或经由外部端口124连接的外部显示器上)回放特定在线视频、发送具有到特定在线视频链接的电子邮件并且管理诸如H.264之类的一个或多个文件格式的在线视频的可执行指令。在一些实施例中,即时消息模块141而不是电子邮件客户端模块140被用于发送到特定在线视频的链接。
上述所标识的模块和应用的每一个均对应于用于执行上文所述的一种或多种功能以及本申请中描述的方法(例如,本文所述的计算机实现方法以及其他信息处理方法)的指令集。这些模块(即指令集)不需要作为单独的软件程序、过程或模块来实现,因此这些模块的各种子集可选地在各实施例中组合或者重新布置。在一些实施例中,存储器102可选地存储上述模块和数据结构的子集。此外,存储器102可选地存储上文未描述的其他模块和数据结构。
在一些实施例中,设备100是专门通过触摸屏和/或触摸板来执行设备上的预定的功能集合的操作的设备。通过将触摸屏和/或触摸板用作操作设备100的主要输入控制设备,设备100上的物理输入控制设备(诸如下压按钮、拨号盘等)的数目可选地被减少。
专门通过触摸屏和/或触摸板执行的该预定的功能集合可选地包括用户界面之间的导航。在一些实施例中,当用户触摸触摸板时,将设备100从在设备100显示上的任何用户界面导航到主屏幕、主画面或根菜单。在此类实施例中,使用触摸板来实施“菜单按钮”。在一些其他实施例中,菜单按钮是物理推压按钮或其他物理输入控制设备而不是触摸板。
图1B是图示根据一些实施例用于事件处理的示例性组件的框图。在一些实施例中,存储器102(在图1A)或存储器370(图3)包括事件分类器170(例如,在操作系统126中)以及相应应用136-1(例如,任何前述应用136、137-155、380-390)。
事件分类器170接收事件信息,并且确定要将事件信息递送到的应用136-1以及应用136-1的应用视图191。事件分类器170包括事件监测器171和事件分派器模块174。在一些实施例中,应用136-1包括应用内部状态192,其指示当应用活跃或正在执行时触敏显示系统112上显示的(一个或多个)当前应用视图。在一些实施例中,设备/全局内容状态157由事件分类器170用于确定哪个或哪些应用当前是活跃的,并且应用内部状态192由事件分类器170用于确定要将事件信息递送至的应用视图191。
在一些实施例中,应用内部状态192包括附加信息,诸如以下各项中的一个或多个:当应用136-1恢复执行时要使用的恢复信息,指示正在显示的信息或者准备由应用136-1显示的用户界面状态信息,使用户能够回到应用136-1的前一状态或视图的状态队列,以及由用户采取的先前动作的重做/撤销队列。
事件监测器171从外围接口118接收事件信息。事件信息包括关于子事件的信息(例如,作为多点触摸手势的一部分的触敏显示系统112上的用户触摸)。外围接口118传输其从I/O子系统106或传感器,诸如接近传感器166、(一个或多个)加速度计168和/或麦克风113(通过音频电路装置110)接收的信息。外围接口118从I/O子系统106接收的信息包括来自触敏显示系统112或触敏表面的信息。
在一些实施例中,事件监测器171以预定间隔向外围接口118发送请求。作为响应,外围接口118发送事件信息。在其他实施例中,外围接口118只在发生重要事件(例如,接收到超过预定噪声阈值和/或长于预定持续时间的输入)时才发送事件信息。
在一些实施例中,事件分类器170还包括命中视图确定模块172和/或活跃事件识别器确定模块173。
命中视图确定模块172提供用于在触敏显示系统112显示多于一个视图时,确定子事件已经在一个或多个视图中何处发生的软件程序。视图由控件以及用户在显示器上可以看到的其他元件组成。
与应用相关联的用户界面的另一方面是一组视图,本文中有时称为应用视图或用户界面窗口,其中显示信息并且发生基于触摸的手势。其中检测到触摸的(相应应用的)应用视图可选地对应于该应用的程序或视图分级结构中的程序层级。例如,其中所检测到的触摸的最低层级视图可选地被称为命中视图,并且可选地至少部分基于开始基于触摸的手势的初始触摸的命中视图,来确定被识别为正确输入的事件集。
命中视图确定模块172接收与基于触摸的手势的子事件有关的信息。当应用具有以分级结构组织的多个视图时,命中视图确定模块172将该分级结构中应当处理该子事件的最低层视图标识为命中视图。在大部分情况下,命中视图是其中发生了发起子事件(即,子事件序列中形成事件或潜在事件的第一个子事件)的最低层级的视图。一旦由命中视图确定模块标识命中视图,该命中视图通常接收与使其被标识为命中视图的相同触摸或输入源有关的所有子事件。
活跃事件识别器确定模块173确定视图分级结构中的哪个视图或哪些视图应当接收特定子事件序列。在一些实施例中,活跃事件识别器确定模块173确定只有命中视图应当接收特定子事件序列。在其他实施例中,活跃事件识别器确定模块173确定包括子事件的物理位置在内的所有视图都是主动参与的视图,因此确定所有主动参与的视图都应当接收特定子事件序列。在其他实施例中,即使触摸子事件被完全限定到与一个特定视图相关联的区域,分级结构中更高的视图将仍然保持作为主动参与的视图。
事件分派器模块174将事件信息分派至事件识别器(例如,事件识别器180)。在包括活跃事件识别器确定模块173的实施例中,事件分派器模块174将事件信息递送至由活跃事件识别器确定模块173确定的事件识别器。在一些实施例中,事件分派器模块174将事件信息存储在事件队列中,由相应的事件接收器模块182进行检索。
在一些实施例中,操作系统126包括事件分类器170。备选地,应用136-1包括事件分类器170。在其他实施例中,事件分类器170是单独模块,或者是存储器102中存储的另一模块(诸如接触/运动模块130)的一部分。
在一些实施例中,应用136-1包括多个事件处理机190以及一个或多个应用视图191,其中每一个都包括用于处理发生在该应用的用户界面的相应视图内的触摸事件的指令。应用136-1的每个应用视图191包括一个或多个事件识别器180。通常,相应的应用视图191包括多个事件识别器180。在其他实施例中,一个或多个事件识别器180是独立模块(诸如用户界面套件(未示出))的一部分,或者应用136-1从中继承方法和其他属性的更高层对象。在一些实施例中,相应事件处理机190包括以下各项中的一个或多个:数据更新器176、对象更新器177、GUI更新器178和/或从事件分类器170接收的事件数据179。事件处理机190可选地利用或调用数据更新器176、对象更新器177或GUI更新器178来更新应用内部状态192。备选地,应用视图191中的一个或多个包括一个或多个相应事件处理机190。同样,在一些实施例中,数据更新器176、对象更新器177和GUI更新器178中的一个或多个包括在相应的应用视图191中。
相应的事件识别器180从事件分类器170接收事件信息(例如,事件数据179),并基于该事件信息标识事件。事件识别器180包括事件接收器182和事件比较器184。在一些实施例中,事件识别器180还包括至少以下各项的子集:元数据183和事件递送指令188(其可选地包括子事件递送指令)。
事件接收器182从事件分类器170接收事件信息。该事件信息包括关于子事件(例如,触摸或触摸移动)的信息。取决于子事件,事件信息还包括附加信息,诸如子事件的位置。当子事件涉及触摸的运动时,事件信息可选地还包括子事件的速率和方向。在一些实施例中,事件包括设备从一个定向到另一个定向的旋转(例如,从纵向到横向的旋转,反之亦然),并且事件信息包括关于设备的当前定向(也被称作设备姿态)的对应信息。
事件比较器184将事件信息与预定义的事件或子事件定义进行比较,并且基于该比较来确定事件或子事件,或者确定或更新事件或子事件的状态。在一些实施例中,事件比较器184包括事件定义186。该事件定义186包含事件(例如,预定的子事件序列)的定义,例如,事件1(187-1)、事件2(187-2)等。在一些实施例中,事件187中的子事件例如包括触摸开始、触摸结束、触摸移动、触摸取消和多点触摸。在一个示例中,事件1(187-1)的定义是对显示对象的双击。该双击例如包括对显示对象的、预定阶段的第一触摸(触摸开始)、预定阶段的第一抬离(触摸结束)、对显示对象的、预定阶段的第二触摸(触摸开始)以及预定阶段的第二抬离(触摸结束)。在另一示例中,事件2(187-2)的定义是对显示对象的拖拽。该拖拽例如包括对显示对象的、预定阶段的触摸(或接触)、该触摸在触敏显示系统112上的移动以及触摸的抬离(触摸结束)。在一些实施例中,事件还包括用于一个或多个相关联的事件处理机190的信息。
在一些实施例中,事件定义187包括针对相应用户界面对象的事件的定义。在一些实施例中,事件比较器184执行命中测试,以确定与子事件相关联的用户界面对象。例如,在其中在触敏显示系统112上显示三个用户界面对象的应用视图中,当在触敏显示系统112上检测到触摸时,事件比较器184执行命中测试,以确定三个用户界面对象中的哪个用户界面对象与该触摸(子事件)相关联。如果每个所显示的对象均与相应的事件处理机190相关联,则事件比较器使用该命中测试的结果来确定哪个事件处理机190应当被激活。例如,事件比较器184选择与触发该命中测试的子事件和对象相关联的事件处理机。
在一些实施例中,相应事件187的定义还包括延迟动作,其延迟事件信息的递送,直到已经确定子事件序列是否与事件识别器的事件类型相对应。
当相应事件识别器180确定子事件序列不与事件定义186中的任何事件匹配时,该相应的事件识别器180进入事件不可能、事件失败或者事件结束状态,此后该相应的事件识别器180忽视基于触摸的手势的后续子事件。在此情况下,对于命中视图保持活跃的其他事件识别器(如果有的话)继续跟踪和处理正在进行的基于触摸的手势的子事件。
在一些实施例中,相应事件识别器180包括具有可配置的属性、标志(flag)和/或列表的元数据183,其指示事件递送系统应当如何执行去往主动参与的事件识别器的子事件传递。在一些实施例中,元数据183包括可配置的属性、标志和/或列表,其指示事件识别器如何彼此交互或者被使得能够彼此交互。在一些实施例中,元数据183包括指示子事件是否被递送到视图或程序分级结构中的不同层级的可配置的属性、标志和/或列表。
在一些实施例中,相应事件识别器180在事件的一个或多个特定子事件被识别时激活与事件相关联的事件处理机190。在一些实施例中,相应事件识别器180向事件处理机190递送与事件相关联的事件信息。激活事件处理机190不同于向相应的命中视图发送(或延迟发送)子事件。在一些实施例中,事件识别器180抛出与识别事件相关联的标志,并且与该标志相关联的事件处理机190抓住该标志并执行预定过程。
在一些实施例中,事件递送指令188包括子事件递送指令,其递送关于子事件的事件信息而不激活事件处理机。相反,子事件递送指令向与一系列子事件或主动参与的视图相关联的事件处理机递送事件信息。与一系列子事件或主动参与的视图相关联的事件处理机接收该事件信息并执行预定过程。
在一些实施例中,数据更新器176创建并更新应用136-1中使用的数据。例如,数据更新器176更新联系人模块137中使用的电话号码,或者存储视频播放器模块145中使用的视频文件。在一些实施例中,对象更新器177创建并更新应用136-1中使用的数据。例如,对象更新器177创建新的用户界面对象或更新用户界面对象的位置。GUI更新器178更新GUI。例如,GUI更新器178准备显示器信息,并且将其发送至图形模块132用于在触敏显示器上显示。
在一些实施例中,一个或多个事件处理机190包括或能够访问数据更新器176、对象更新器177和GUI更新器178。在一些实施例中,数据更新器176、对象更新器177和GUI更新器178被包括在相应的应用136-1或应用视图191的单个模块中。在其他实施例中,数据更新器176、对象更新器177和GUI更新器178被包括在两个或更多软件模块中。
应当理解,关于触敏显示器上的用户触摸的事件处理的前述讨论也适用于操作具有输入设备的多功能设备100的其他形式的用户输入,其中不是所有用户输入都是在触摸屏上发起的。例如,与单个或多个键盘按压或保持可选地相配合的鼠标移动和鼠标按钮按压;触控板上的接触运动(诸如轻击、拖拽、滚动等);触笔输入,设备的移动;语音指令;检测到的眼睛运动,生物测定(biometric)的输入;和/或上述各项的任何组合,都可选地用作与定义要被识别的事件的子事件对应的输入。
图2图示了根据一些实施例的具有触摸屏(例如,触敏显示系统112,图1A)的便携式多功能设备100。触摸屏在用户界面(UI)200内可选地显示一个或多个图形。在该实施例以及如下所述的其他实施例中,用户能够(例如用一个或多个手指202(在图中未按比例画出)或一个或多个触笔(在图中未按比例画出))通过对图形做出手势来选择一个或多个图形。在一些实施例中,对一个或多个图形的选择发生在用户中断与一个或多个图形的接触时。在一些实施例中,手势可选地包括一个或多个轻击、一个或多个轻扫(从左到右、从右到左、向上和/或向下)和/或已经与设备100进行接触的手指的转动(从右到左、从左到右、向上和/或向下)。在一些实现方式或者情况中,与图形的无意接触不会选择图形。例如,当与选择对应的手势是轻击时,扫过应用图标的轻扫手势可选地不会选择对应的应用。
设备100可选地还包括一个或多个物理按钮,诸如“主画面”或菜单按钮204。如前所述,菜单按钮204可选地用于导航至应用集合中的可选地在设备100上执行的任何应用136。备选地,在一些实施例中,菜单按钮被实现为在触摸显示器上显示的GUI中的软按键。
在一些实施例中,设备100包括触摸屏显示器、菜单按钮204、用于打开/关闭设备电源并且锁定设备的下压按钮206以及(一个或多个)音量调节按钮208、客户标识模块(SIM)卡槽210、耳机接口212和对接/充电外部端口124。下压按钮206可选地用于通过按压该按钮并使该按钮保持在按压状态预定的时间间隔来打开/关闭设备电源;通过按压该按钮并在经过预定的时间间隔之前释放该按钮来锁定设备;和/或解锁设备或发起解锁过程。在一些实施例中,设备100还通过麦克风113接受用于激活或去激活某些功能的语音输入。设备100可选地还包括用于在触敏显示系统112上检测接触强度的一个或者多个接触强度传感器165和/或用于生成对设备100的用户的触觉输出的一个或者多个触觉输出生成器167。
图3是根据一些实施例具有显示器和触敏表面的示例性多功能设备的框图。设备300不必是便携式的。在一些实施例中,设备300是膝上型计算机、台式计算机、平板计算机、多媒体播放器设备、导航设备、教育设备(诸如儿童学习玩具)、游戏系统或控制设备(例如,家用或工业控制器)。设备通常包括一个或多个处理单元(CPU)310、一个或多个网络或其他通信接口360、存储器370以及用于互连这些组件的一个或多个通信总线320。通信总线320可选地包括互连并且控制系统组件之间通信的电路装置(有时被称作芯片组)。设备300包括输入/输出(I/O)接口330,其包括通常为触摸屏显示器的显示器340。I/O接口330可选地还包括键盘和/或鼠标(或其他定点设备)350和触摸板355、用于在设备300上生成触觉输出的触觉输出生成器357(例如,类似于以上参考附图1A所描述的(一个或多个)触觉输出生成器167)、传感器359(例如,光学传感器、加速度传感器、接近传感器、触敏传感器和/或与以上参考附图1A所描述的(一个或多个)接触强度传感器165相似的接触强度传感器)。存储器370包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备;并且可选地包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存设备或其他非易失性固态存储设备。存储器370可选地包括远离(一个或多个)CPU 310的一个或多个存储设备。在一些实施例中,存储器370存储与在便携式多功能设备100(图1)的存储器102中存储的程序、模块和数据结构类似的程序、模块和数据结构或其子集。此外,存储器370可选地存储便携式多功能设备100的存储器102中不存在的附加程序、模块和数据结构。例如,设备300的存储器370可选地存储绘图模块380、演示模块382、文字处理模块384、网站创建模块386、盘编写模块388和/或电子表格模块390,而便携式多功能设备100(图1A)的存储器102可选地不存储这些模块。
图3中的上述元件中的每个元件可选地被存储在前述存储器设备中的一个或多个中。上述模块中的每个模块对应于用于执行如上所述功能的指令集。上述模块或程序(即指令集)不需要被实现为单独软件程序、过程或模块,因此在各实施例中,这些模块的各种子集可选地被组合或以其他方式被重新布置。在一些实施例中,存储器370可选地存储上述模块和数据结构的子集。此外,存储器370可选地存储上文未描述的附加模块和数据结构。
现在将关注转向可选地在例如便携式多功能设备100上实现的用户界面(“UI”)的实施例。
图4A图示了根据一些实施例用于便携式多功能设备100上的应用菜单的示例性用户界面。类似用户界面可以在设备300上实现。在一些实施例中,用户界面400包括以下元件或其子集或超集:
·信号强度指示符402,用于(多种)无线通信,诸如蜂窝信号和Wi-Fi信号;
·时间404;
·蓝牙指示符405;
·电池状态指示符406;
·托盘408,具有以下频繁使用的应用的图标,诸如:
o用于电话模块138的图标416,标注为“电话”,其可选地包括未接呼叫或语音消息的数目的指示符414;
o用于电子邮件客户端模块140的图标418,标注为“邮件”,其可选地包括未读电子邮件的数目的指示符410;
o用于浏览器模块147的图标420,标注为“浏览器”;以及
o用于视频和音乐播放器模块152的图标422,也被称为iPod(Apple公司的商标)模块152,标注为“iPod”;以及
·用于其他应用的图标,诸如:
o用于IM模块141的图标424,标注为“消息”;
o用于日历模块148的图标426,标注为“日历”;
o用于图像管理模块144的图标42,标注为“照片”;
o用于相机模块143的图标430,标注为“相机”;
o用于在线视频模块155的图标432,标注为“在线视频”;
o用于股票微件149-2的图标434,标注为“股票”;
o用于地图模块154的图标436,标注为“地图”;
o用于天气微件149-1的图标438,标注为“天气”;
o用于闹钟微件149-4的图标440,标注为“时钟”;
o用于锻炼支持模块142的图标442,标注为“锻炼支持”;
o用于备忘录模块153的图标444,标注为“备忘录”;
o用于设置应用或者模块的图标446,其提供对设备100及其各个应用136的设置的访问。
应当理解图4A中所图示的图标标签仅为示例性的。例如,在一些实施例中,用于视频和音乐播放器模块152的图标422被标注为“音乐”或“音乐播放器”。其他标签可选地用于各个应用图标。在一些实施例中,用于相应应用图标的标签包括对应于相应应用图标的应用的名称。在一些实施例中,特定应用图标的标签与对应于特定应用图标的应用的名称不同。
图4B图示了具有与显示器450(例如,触摸屏显示器112)分离的触敏表面451(例如,图3的平板或触摸板355)的设备(例如,图3的设备300)上的示例性用户界面。尽管将参照触摸屏显示器112(其中触敏表面和显示器被组合)上的输入给出下面的许多示例,但是在一些实施例中,该设备如图4B所示的检测与显示器分离的触敏表面上的输入的设备。在一些实施例中,触敏表面(例如,图4B中的451)具有对应于显示器(例如,450)上主坐标轴(例如,图4B中的453)的主坐标轴(例如,图4B中的452)。根据这些实施例,设备检测在对应于显示器上相应位置的位置(例如,在图4B中,460对应于468并且462对应于470)处的与触敏表面451的接触(例如,图4B中的460和462)。通过此方式,当触敏表面与多功能设备的显示器(例如,图4B中的450)分离时,由设备在触敏表面(例如,图4B中的451)上检测到的用户输入(例如,接触460和接触462及其移动)被该设备用于操控显示器该上的用户界面。应当理解,类似方法可选地用于本文所述的其他用户界面。
此外,虽然主要参照手指输入(例如,手指接触、手指轻击手势、手指轻扫手势)给出以下示例,但是应当理解的是,在一些实施例中,一个或多个手指输入可以用来自另一输入设备(例如,基于鼠标的输入或触笔输入等)的输入来替代。例如,轻扫手势可以例如不是接触(跟随有该接触的移动),而是可选地用鼠标单击(跟随有光标沿着轻扫路径的移动)来替代。作为另一示例,轻击手势可以例如不是检测接触(跟随有停止检测该接触),而是可选地当光标位于轻击手势的位置上时用鼠标点击来替代。类似地,当同时检测到多个用户输入时,应当理解,可选地同时使用多个计算机鼠标,或者可选地同时使用鼠标和手指接触。
如本文所使用的,术语“焦点选择器”指代用户界面的、与用户正在交互的当前部分的输入元件。在一些实现方式中,包括光标或其他位置标记,该光标用作“焦点选择器”以便当在触敏表面(例如图3中的触摸板355或图4B中的触敏表面451)上检测到输入(例如按压输入)而光标在特定用户界面元件(例如按钮、窗口、滑动条或其它用户界面元件)上时,根据所检测的输入而调整该特定用户界面元件。在一些实现方式中,包括使得能够与触摸屏显示器上的用户界面元件直接交互的触摸屏显示器(例如图1A中的触敏显示器系统112或图4A中的触摸屏),该触摸屏上所检测的接触用作“焦点选择器”以便当在特定用户界面元件(例如按钮、窗口、滑动条或其他用户界面元件)的位置处的触摸屏显示器上检测到输入(例如通过接触的按压输入)时,根据所检测的输入而调整该特定用户界面元件。在一些实现方式中,在没有光标的对应移动或触摸屏显示器上接触的移动(例如通过使用制表键或方向键来将焦点从一个按钮移动到另一个按钮)的情况下,焦点被从用户界面的一个区域移动到用户界面的另一个区域;在这些实现方式中,该焦点选择器根据用户界面的不同区域之间焦点的移动而移动。不考虑焦点选择器所采取的特定形式,该焦点选择器通常是用户界面元件(或触摸屏显示器上的接触),该焦点选择器(例如通过向设备指示用户正在意图与其交互的用户界面元件而)由用户控制以便与用户界面沟通用户的意图交互。例如,在触敏表面(例如触摸板或触摸屏)上检测到按压输入时,焦点选择器(例如光标、接触或选择框)在相应按钮上的位置将指示用户正在意图激活相应的按钮(与在设备的显示器上显示的其它用户界面元件相对)。
如说明书和权利要求中所使用的,在触敏表面上接触的术语“强度”指代在触敏表面上接触(例如,手指接触或触笔接触)的力或者压力(单位面积的力),或者指代用于在触敏表面上接触的力或者压力的替代(代理)。接触的强度具有包括至少四个不同的数值并且更典型地包括数百个不同数值(例如,至少256)的数值范围。可选地,使用各种方法和各种传感器或者传感器的组合来确定(或者测量)接触强度。例如,在触敏表面下面的或者邻近于触敏表面的一个或者多个力传感器可选地用于在触敏表面上的各个点处测量力。在一些实现方式中,来自多个力传感器的力测量被组合(例如,加权平均数或加和)以确定接触的估计的力。类似地,触笔的压敏尖端可选地用于确定在触敏表面上的触笔的压力。备选地,在触敏表面上检测到的接触区域的大小和/或对其的改变、接近接触的触敏表面的电容和/或对其的改变、接近接触的触敏表面的电阻和/或对其的改变可选地用作为触敏表面上的接触的力或者压力的替代。在一些实现方式中,用于接触力或者接触压力的替代测量直接地用于确定是否已经超过强度阈值(例如,强度阈值以对应于替代测量的单位被描述)。在一些实现方式中,用于接触力或者接触压力的替代测量被转换成估计的力或估计的压力,并且该估计的力或估计的压力用来确定是否已经超过强度阈值(例如,强度阈值是以压力的单位测量出的压力阈值)。将接触强度用作用户输入的属性允许了对附加设备功能的用户访问,该附加设备功能否则在具有用于显示可供件和/或接收用户输入(例如,经由触敏显示器、触敏表面或者物理/机械控制,诸如旋钮或者按钮)的有限有效面积(real estate)的尺寸减小的设备上(例如,经由触敏显示器)不可能由用户可访问。
在一些实施例中,接触/运动模块130使用一个或者多个强度阈值的集合来确定操作是否已经由用户执行(例如,确定用户是否已经“点击”图标)。在一些实施例中,根据软件参数来确定强度阈值的至少一个子集(例如,强度阈值不是由特定的物理致动器的激活阈值来确定,并且在不改变设备100的物理硬件的情况下来调整)。例如,在不改变触控板或者触摸屏显示器硬件的情况下,触摸板或者触摸屏的鼠标“点击”阈值可以被设置为预定阈值范围的任何大范围。此外,在一些实施例中,向设备的用户提供有软件设置以用于调整强度阈值的集合中的一个或者多个强度阈值(例如,通过系统级点击“强度”参数来一次性调整单个和/或多个强度阈值)。
如在说明书和权利要求中所使用的,术语接触的“特性强度”指代基于接触的一个或多个强度的接触的特性。在一些实施例中,特性强度是基于多个强度样本。特性强度可选地基于预定数目的强度样本或相对于预定事件(例如在检测到接触之后,在检测到接触抬离之前,在检测到接触开始移动之前或之后,在检测到接触结束之前,在检测到接触强度增大之前或之后,和/或在检测到接触强度减小之前或之后)在预定时间段(例如0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒)期间收集到的强度样本集。接触的特性强度可选地基于以下各项中的一项或多项:接触强度的最大值、接触强度的中值、接触强度的平均值、接触强度的最高10%数值、接触强度的半高处数值、接触强度的90%最大处数值等。在一些实施例中,接触的持续时间被用于确定特性强度(例如当特性强度是接触强度随时间的平均值时)。在一些实施例中,特性强度与一个或多个强度阈值集比较以确定是否已经由用户执行操作。例如,一个或多个强度阈值集可以包括第一强度阈值和第二强度阈值。在该示例中,具有未超过第一阈值的特性强度的接触导致第一操作,具有超过第一强度阈值以及未超过第二强度阈值的特性强度的接触导致第二操作,以及具有超过第二强度阈值的特性强度的接触导致第三操作。在一些实施例中,特性强度与一个或多个强度阈值之间的比较被用于确定是否执行一个或多个操作(例如是否执行相应操作或放弃执行相应操作)而不被用于确定是否执行第一操作或第二操作。
在一些实施例中,出于确定特性强度的目的,标识一部分手势。例如,触敏表面可以接收从开始位置过渡并且到达结束位置的连续轻扫接触(例如拖拽手势),在该结束位置处接触强度增大。在该示例中,在结束位置处的接触的特性强度可以基于连续轻扫接触的仅一部分,而不是整个轻扫接触(例如在结束位置处的轻扫接触的仅一部分)。在一些实施例中,平滑算法可以在确定接触的特性强度之前而被应用到轻扫接触强度。例如,平滑算法可选地包括以下各项中的一项或多项:未加权的滑动平均平滑算法、三角平滑算法、中值滤波平滑算法和/或指数平滑算法。在一些情况下,出于确定特性强度的目的,这些平滑算法会消除轻扫接触强度中的窄的峰值或谷值。
本文描述的用户界面图可选地包括各种示在相对于一个或多个强度阈值(例如,接触检测强度阈值IT0、轻压强度阈值ITL、深压强度阈值ITD(例如,其至少最初高于IL)和/或一个或多个其它强度阈值(例如,低于IL的强度阈值IH))的触敏表面上的当前强度出示图。这一强度表通常不是所显示的用户界面的一部分,而是被提供以辅助对附图的理解。在一些实施例中,轻压强度阈值对应于在此强度下设备将执行通常与点击物理鼠标或触控板的按钮相关联的操作的强度。在一些实施例中,深压强度阈值对应于在此强度下设备将执行跟通常与点击物理鼠标或触控板的按钮相关联操作不同的操作的强度。在一些实施例中,当检测到接触具有低于轻压强度阈值的特性强度(例如以及检测到高于标称接触检测强度阈值IT0,其中低于该标称接触检测强度阈值时不再检测到该接触)时,该设备将根据接触在触敏表面上的移动而移动焦点选择器,而不执行与轻压强度阈值或深压强度阈值相关联的操作。通常,除非另外说明,否则这些强度阈值在用户界面图形的不同集之间是一致的。
在一些实施例中,设备对由设备检测到的输入的响应取决于基于在该输入期间的接触强度的准则。例如,对于一些“轻压”输入,在输入期间的超过第一强度阈值的接触的强度触发第一响应。在一些实施例中,设备对由设备检测到的输入的响应取决于包括在输入期间的接触强度和基于时间的准则两者的准则。例如,对于一些“深压”输入,在输入期间超过第二强度阈值的接触的强度(大于针对轻压的第一强度阈值)仅在在满足第一强度阈值与满足第二强度阈值之间已经流逝有延迟时间的情况下触发第二响应。这一延迟时间的持续时间通常小于200ms(例如,40、100或120ms,取决于第二强度阈值的量值,随着第二强度阈值增加,延迟时间增加)。这一延迟时间有助于避免意外的深压输入。作为另一示例,对于一些“深压”输入,存在减小敏感度时间段,其在第一强度阈值被满足的时刻之后发生。在减小敏感度时间段期间,第二强度阈值增加。第二强度阈值中的这一暂时的增加还有助于避免意外的深压输入。对于其他深压输入,对检测到深压输入的响应不取决于基于时间的准则。
在一些实施例中,输入强度阈值中的一个或多个输入强度阈值和/或对应的输出基于一个或多个因素而改变,一个或多个因素诸如用户设置、接触运动、输入时机、运行的应用、施加的强度的速率、并行输入的数目、用户历史、环境因素(例如,环境噪声)、焦点选择器位置等等。示例性因素在序列号为14/399,606和14/624,296的美国专利申请中描述,其通过引用整体并入于此。
例如,图4C图示了部分基于在时间上的触摸输入476的强度而随时间改变的动态强度阈值480。动态强度阈值480是两个分量的和,第一分量474和第二分量478,第一分量474在从该时触摸输入476被最初检测到的预定义延迟时间p1之后随时间衰减,并且第二分量478随时间追随触摸输入的强度476。第一分量474的初始高强度阈值减少了“深压”响应的意外触发,而在触摸输入476提供充足强度的情况下仍允许立刻的“深压”响应。第二分量478通过触摸输入中的逐渐的强度波动减少了“深压”响应的无意触发,而在触摸输入476提供充足强度的情况下仍允许立刻的“深压”响应。在一些实施例中,在触摸输入476满足动态强度阈值480(例如,在图4C中的点481处),“深压”响应被触发。
图4D图示了另一动态强度阈值486(例如,强度阈值1D)。图4D还图示了两个其他强度阈值:第一强度阈值IH和第二强度阈值IL。在图4D中,虽然在时间p2之前触摸输入484满足第一强度阈值IH和第二强度阈值IL,但是直到在时间482处已经流逝了延迟时间p2之前不提供响应。另外在图4D中,动态强度阈值486随时间衰减,而衰减在已经从时间482(此时与第二强度阈值IL相关联的响应被触发)流逝预定义延迟时间p1之后的时间488开始。这一类型的动态强度阈值减少了与紧接着触发与较低的强度阈值(诸如第一强度阈值IH或者第二强度阈值IL)相关联的响应之后或者与其同时的动态强度阈值ID相关联的响应的意外触发。
图4E图示了又一动态强度阈值492(例如,强度阈值ID)。在图4E中,在从触摸输入490被最初检测到时已经流逝延迟时间p2之后与强度阈值IL相关联的响应被触发。同时,在从触摸输入490被最初检测到时已经流逝预定义延迟时间p1之后动态强度阈值492衰减。因此,在触发与强度阈值IL相关联的响应之后的触摸输入490的强度中的减小,跟随着触摸输入490的强度的增大,而不释放触摸输入490,能够(例如,在时间494)触发与强度阈值ID相关联的响应,即使在触摸输入490的强度低于另一强度阈值(例如,强度阈值IL)。
接触的特性强度从低于轻压强度阈值ITL的强度增大至在轻压强度阈值ITL和深压强度阈值ITD之间的强度的有时称为“轻压”输入。接触的特性强度从低于深压强度阈值ITD的强度增大至高于深压强度阈值ITD的强度的有时称为“深压”输入。接触的特性强度从低于接触检测强度阈值IT0的强度增大至接触检测强度阈值IT0和轻压强度阈值ITL之间的强度有时称为检测触摸表面上的接触。接触的特性强度从高于接触检测强度阈值IT0的强度减小至低于接触检测强度阈值IT0的强度有时称为检测接触从接触表面的抬离。在一些实施例中,IT0为零。在一些实施例中,接IT0大于零。在一些图示中,使用带阴影的圆或椭圆来表示在触敏表面上的接触的强度。在一些图示中,使用不带阴影的圆或椭圆来表示在触敏表面上的相应接触而不指明相应接触的强度。
在本文描述的一些实施例中,响应于检测到包括相应按压输入的手势,或者响应于检测到由相应接触(或多个接触)执行的相应按压输入,执行一个或多个操作,其中该相应按压输入至少部分地基于检测到接触(或多个接触)强度增大至高于按压输入强度阈值来检测。在一些实施例中,响应于检测到相应接触强度增大至高于按压输入强度阈值(例如对相应按压输入的“按下击打”执行的相应操作)来执行相应的操作。在一些实施例中,按压输入包括相应接触强度增大至高于按压输入强度阈值,以及接触强度随后减小至低于按压输入强度阈值,并且响应于检测到相应接触强度随后减小至低于按压输入阈值(例如对相应按压输入的“抬起击打”执行的相应操作),执行相应的操作。
在一些实施例中,设备采用了强度迟滞来避免有时称作“抖动”的意外输入,其中设备限定或选择与按压输入强度阈值具有预定关系的迟滞强度阈值,(例如迟滞强度阈值低于按压输入强度阈值X个强度单位,或者迟滞强度阈值是按压输入强度阈值的75%、90%或一些合理比例)。因此,在一些实施例中,按压输入包括相应接触强度增大至高于按压输入强度阈值以及接触强度随后减小至低于对应于按压输入强度阈值的迟滞强度阈值,并且响应于检测到相应接触强度随后减小至低于迟滞强度阈值(例如对相应按压输入的“抬起击打”执行的相应操作)来执行相应的操作。相似地,在一些实施例中,仅当设备检测到接触强度从处于或低于迟滞强度阈值的强度增大至处于或高于按压输入强度阈值的强度,以及可选地接触强度随后减小至处于或低于迟滞强度时,才检测按压输入,并且响应于检测到按压输入(例如取决于多种情况,接触强度增大或接触强度减小)来执行相应的操作。
为方便说明,响应于检测到以下各项中的任一项,可选地触发响应于与按压输入强度阈值相关联的按压输入或者响应于包括按压输入的手势而执行的操作的描述:接触强度增大至高于按压输入强度阈值,接触强度从低于迟滞强度阈值的强度增大至高于按压输入强度阈值的强度,接触强度减小至低于按压输入强度阈值,或者接触强度减小至低于对应于按压输入强度阈值的迟滞强度阈值。附加地,在示例中,其中描述了响应于检测到接触强度减小至低于按压输入强度阈值而执行操作,该操作可选地响应于检测到接触强度减小至低于对应于按压输入强度阈值的迟滞强度阈值、或者减小至小于按压输入强度阈值的迟滞强度阈值而被执行。如上所述,在一些实施例中,这些响应的触发还取决于基于时间的准则被满足(例如,在第一强度阈值被满足与第二强度阈值被满足之间流逝的延迟时间)。
用户界面和相关联的过程
注意力现在被指向可以被实施在具有显示器、触敏表面以及可选地用于检测与触敏表面的接触的强度的一个或多个传感器的电子设备上的用户界面(“UI”)和相关联的过程的实施例,电子设备例如便携式多功能设备100或设备300。
图5A-5K图示了根据一些实施例的用于捕获经分组的相关图像序列的示例性用户界面。这些附图中的用户界面被用于说明下面描述的过程,包括图9A-9G、10A-10M、11A-11I、12A-12B、24A-24E、25A-25C、26A-26D和27A-27E中的过程。为便于解释,将参考对具有触敏显示系统112的设备执行的操作讨论各实施例中的一些。在这样的实施例中,焦点选择器可选地为:相应手指或触笔接触、与手指或触笔接触相对应的代表性点(例如,相应接触的形心或与相应接触相关联的点)或者在触敏显示系统112上检测到的两个或更多个接触的形心。然而,可选地,利用显示器450和单独的触敏表面451响应于当在显示器450上显示在附图中示出的用户界面以及焦点选择器时检测到触敏表面451上的接触而执行类似的操作。
图5A图示了用于在触摸屏112上显示实时预览的媒体捕获用户界面500。图5A中图示的实时预览是从便携式多功能设备100中的相机(例如,连同光学传感器164的相机模块143)获得的图像的预览。媒体捕获用户界面500上的实时预览实时地或接近实时地(例如,在由便携式多功能设备100产生所显示的图像所需要的处理时间量内)显示从相机获得的图像。因此,在图5A中示出的示例中,用户正在注视其中海鸥502在树504上方的天空中飞翔的场景,并且便携式多功能设备100实时地或接近实时地在触摸屏112上再现该场景。在一些实施例中,实时预览以(例如,比相机的分辨率上限更低的)第一分辨率显示图像。
在该示例中,便携式多功能设备100当处于实时预览中时被配置为处于增强媒体采集模式(例如,其中便携式多功能设备100被配置为获得增强型照片)或者另一媒体采集模式(例如,其中便携式多功能设备100被配置为捕获静止图像、视频、连串图像或任何其他类型的图像)中。在一些实施例中,媒体捕获用户界面500包括用于启用增强媒体采集模式(例如,打开/关闭增强媒体采集模式)的可供件506。在一些实施例中,媒体捕获用户界面500包括增强媒体采集模式处于关闭的视觉指示。例如,在图5A中,可供件506显示词语“关闭”。
在一些实施例中,当增强媒体采集模式处于打开时,便携式多功能设备100提供增强媒体采集模式处于打开的视觉指示(例如,以指示当媒体捕获用户界面500被显示时图像和/或音频数据被捕获)。例如,如图5C-5H所示,当增强媒体采集模式处于打开时,可供件506利用示出具有围绕时钟前进的指针508的时钟的动画被动画演示。
在一些实施例中,如图5B所示,便携式多功能设备100检测当增强媒体采集模式被禁用时对可供件506的选择(例如,检测可供件506上的轻叩手势510)。作为响应,便携式多功能设备100启用增强媒体采集模式(如在图5C-5H中由可供件506的动画图示的)。
便携式多功能设备100当增强媒体采集模式处于打开时捕获媒体(例如,图像和/或音频)。例如,因为在图5C-5E中增强视频模式处于打开时,图像512-1(图5C)、图像512-2(图5D)和512-3(图5E)被捕获(例如,被存储在永久存储器中)。在一些实施例中,与图像相对应的音频也(例如,利用麦克风113)被捕获并且与图像相关联(例如,以用于随后与图像一起回放,如图6E-6I所示)。在一些实施例中,其他信息(例如,元数据,例如时间、位置或事件数据)被获得并且与所捕获的图像相关联(例如,以用于随后显示,如图6J-6M所示)。
媒体捕获用户界面500包括快门按钮514(被图示为快门释放图标)。如图5F所示,媒体捕获用户界面500被配置为检测(例如,通过轻叩手势518)对快门按钮514的激活。响应于检测到对快门按钮514的激活,便携式多功能设备100将由相机在与在对快门按钮514的激活接近的时间上采集的多个图像512分组到图像序列(例如,所谓的“增强型照片”)中。增强型照片包括在轻叩手势518之前拍摄的一些图像512(例如,如以上所指出的被存储在永久存储器中的图像512-1、图像512-2和图像512-3中的至少一些)、代表性图像(例如,图5F的与快门激活相对应的图像512-4)以及在轻叩手势518之后拍摄的一些图像(例如,图5G的图像512-5和图5H的图像512-6)。
在一些实施例中,代表性图像类似于当传统数字相机的快门按钮被激活时以其静止图像模式捕获的单个图像。在一些实施例中,代表性图像512-4与在快门按钮514由轻叩手势518激活的时间处采集的图像相对应。在一些实施例中,代表性图像512-4与在检测到对快门按钮514的激活之后不久在考虑了快门迟滞(在检测到对快门按钮的激活与捕获/存储代表性图像之间的时间延迟)的时间处采集的图像相对应。在一些实施例中,由相机采集的代表性图像512-4被用于表示例如(如图6A所示的)图像呈现模式中的图像序列。
如以上所指出的,在一些实施例中,实时预览以第一分辨率显示图像。在一些实施例中,图像序列512包括被显示在实时预览中的第一分辨率的图像,同时由相机采集的代表性图像512-4具有比第一分辨率更高的第二分辨率。例如,如图5I所示,图像序列512包括(按时间顺序):图像512-2、图像512-3、图像512-4、图像512-5以及图像512-6,其中图像512-4是代表性图像。在一些实施例中,代表性图像512-4以比图像512-2、图像512-3、图像512-5或图像512-6更高的分辨率被存储。
如图5F-5H所示,在一些实施例中,在快门按钮514的激活之后,媒体捕获用户界面500当其捕获将被包含在经分组的图像序列中的剩余图像时显示动画(例如,当便携式多功能设备100捕获代表性图像512-4和在代表性图像512-4之后采集的图像时显示动画)。在图5F-5H中,媒体捕获用户界面500显示快门按钮514分裂开并飞回到一起的动画(例如,从而向用户提供图像和/或音频仍然被捕获的指示)。在一些实施例中,该动画是循环动画,循环动画可以在相机完成采集用于图像序列的图像之前快门按钮514被保持按下或被再次激活的情况下被无缝延伸。
在一些实施例中,在完成捕获图像序列后,便携式多功能设备100返回到参考图5A描述的功能,使得第二图像序列可以由用户以与捕获以上描述的图像序列类似的方式获得。
如图5I-5K所示,在一些实施例中,便携式多功能设备100显示用于编辑和/或配置图像序列的第二用户界面520(例如,第二用户界面520是处于图像序列编辑模式中的用户界面)。在图5I中,被包含在图像序列中的图像512是具有实线边界的那些:图像512-2、图像512-3、图像512-4、图像512-5以及图像512-6,其中图像512-4是代表性图像。因此,图像512-2是图像序列中的初始图像,并且在初始图像512-2与代表性图像512-4之间存在一个图像(图像512-3)(尽管,在一些实施例中,在初始图像与代表性图像之间存在更大整数数量的图像,例如5个、10个或30个图像)。图像512-6是图像序列中的最终图像,并且在代表性图像512-4与最终图像512-6之间存在一个图像(图像512-5)(尽管,在一些实施例中,在代表性图像与最终图像之间存在更大整数数量的图像,例如5个、10个或30个图像,并且该数量不需要与在初始图像与代表性图像之间的图像的数量相同)。围绕图5I中的图像512-4的粗体边界指示其是代表性图像。
如图5J所示,第二用户界面520被配置为接收用于改变图像序列中的代表性图像的请求(例如,接收在不为当前代表性图像512-4的图像上的触摸手势522)。如图5K所示,该设备通过将代表性图像改变为图像512-3来对触摸手势522做出响应(其具有图5K中的粗体,意味着其是新的代表性图像)。在一些实施例中,在初始图像与代表性图像之间的图像的数量以及在代表性图像与最终图像之间的图像的数量是固定的,使得便携式多功能设备100通过在一端处将图像添加到图像序列并且在另一端处移除(例如,删除或者排除)图像来改变图像序列。例如,在图5K中,图像512-1已经被添加到图像序列以保持在初始图像与代表性图像之间的图像的数量固定,同时图像512-6已经从图像序列被移除以保持在代表性图像与最终图像之间的图像的数量固定。
图6A-6FF图示了根据一些实施例的用于显示(或重放)经分组的相关图像序列(有时被称为增强型照片)的示例性用户界面。这些附图中的用户界面被用于说明下面描述的过程,包括图9A-9G、10A-10M、11A-11I、12A-12B、24A-24E、25A-25C、26A-26D和27A-27E中的过程。尽管将参考与触摸屏显示器(其中触敏表面和显示器被组合,如在便携式多功能设备100上示出的)上的输入给出下面的示例,但是在一些实施例中,所述设备检测如图4B中所示出的与显示器450分离的触敏表面451上的输入。
图6A图示了用户界面600。便携式多功能设备100在用户界面600中显示经分组的图像序列602中的代表性图像602-3。在一些实施例中,用户界面600是处于图像呈现模式中的用户界面。如下面所解释的,图像序列602包括代表性图像602-3、由相机在采集代表性图像之后采集的一个或多个图像(例如,图6C的图像602-4和图6D的图像602-5)以及由相机在采集代表性图像之前采集的一个或多个图像(例如,图6E的图像602-1和图6F的图像602-2)。
在一些实施例中,用户界面600是图像管理应用中的用户界面(例如,来自加利福尼亚库比蒂诺的苹果公司的“照片”)。为此,在一些实施例中,拍摄图像序列602的相机是便携式多功能设备100的部分(例如,相机包括图1A的光学传感器164连同成像模块143)。在一些实施例中,图像序列602由不为便携式多功能设备100的相机拍摄(例如,图像序列602在利用另一设备上的相机被拍摄之后被传输到便携式多功能设备100)。在一些实施例中,图像序列602响应于检测到在第一时间处对快门按钮的激活而获得,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。在一些实施例中,代表性图像602-3与由相机采集的代表性图像相对应,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。
在一些实施例中,便携式多功能设备100存储多个经分组的图像序列,其中的一些是使用便携式多功能设备100采集的,并且其中的一些是在利用不同设备上的相机被拍摄之后被传输到便携式多功能设备100的。例如,在一些情况下,用户可以如关于方法900/2600所描述的获得(例如,拍摄、捕获)多个设备(例如,平板计算机、笔记本计算机和/或数字相机,除了便携式多功能设备100之外的所有设备)上的图像序列并且将图像序列同步或另外传输到便携式多功能设备100上。
在一些实施例中,用户界面600是消息收发应用中的用户界面(例如,来自加利福尼亚库比蒂诺的苹果公司的”消息”)。在一些情况下,用户可能已经在她自己的便携式多功能设备100上获得(例如,拍摄、捕获)相应图像序列,并且也已经(例如,在消息收发应用中)接收到来自不同用户的不同图像序列。因此,在一些实施例中,图像序列602是存储在便携式多功能设备100上的多个图像序列中的包括使用便携式多功能设备100获得的至少一个图像序列和使用与便携式多功能设备100完全不同的不同设备上的相机获得的至少一个图像序列的相应图像序列。
在一些实施例中,当便携式多功能设备100处于收藏视图模式中时,代表性图像602-3被显示在用户界面600中。
用户界面600可选地包括一个或多个工具条。例如,如所示出的,用户界面600包括包含多个可供件606(例如,允许用户使用电子邮件、消息收发或其他应用将图像序列602发送到其他用户的发送可供件606-1;引出用于编辑图像序列602的用户界面的编辑可供件606-2;用户可以通过其指示图像序列602是其收藏之一的收藏可供件606-3;以及允许用户删除图像序列602的删除可供件606-4)的操作工具条604。作为另一示例,用户界面600包括包含另一多个可供件(例如,当被激活时导航到用于导航用户的照片的所有照片可供件610-1;以及当被激活时导航到诸如用于获得照片的用户界面的不同用户界面的“完成”可供件610-2)的导航工具条608。
图6A-6V中示出的图像序列602描绘了其中猫612走到视场中、使它的背滚在地上并且站起来并走开的场景。同时,吱吱叫的鸟614停落在树枝上。当在现实中,这样的场景可能花费几秒来展现,但是在一些实施例中,图像序列602在短时间窗口中被捕获。例如,在一些实施例中,图像序列602描绘围绕获得代表性图像602-3时的时刻(例如,在0.5秒、1.0秒、1.5秒、2.0秒或2.5秒内)的片刻。例如,用户的兴趣可能当猫612开始在草地中打滚时已经被挑动,提醒用户拍摄代表性图像602-3。在一些实施例中,图像序列602包括刚好在获得代表性图像602-3之前的图像和刚好在在获得代表性图像602-3之后的图像,使得图像序列602包括增强型照片,该片刻通过增强型照片当用户执行(如本文中描述的)关于代表性图像602-3的某些操作时可以“活灵活现”。
图6B图示了当便携式多功能设备100显示用户界面600时由便携式多功能设备100检测到的第一输入616的第一部分616-1。具体地,当便携式多功能设备100在用户界面600(其被显示在触摸屏112上)上显示代表性图像602-3时,便携式多功能设备100检测第一输入616的第一部分616-1。在一些实施例中,根据第一输入616满足预定义准则(例如,预定义的增强型照片显示准则)的确定来执行图6B-6O中图示的操作。例如,在一些实施例中,当第一输入616或第一部分616-1是按下并保持手势(如图6B-6O所示)时,执行(例如,触发)图6B-6O中图示的操作。在一些实施例中,便携式多功能设备100包括用于检测与触摸屏112的接触的强度的一个或多个传感器,并且当第一输入616具有满足(例如,达到)预定义强度准则(例如,第一输入616超过如强度示意图618中示出的轻压阈值ITL,强度示意图618是不为所显示的用户界面600的部分但是被提供以辅助解释附图的示意图)的特征强度时,执行(例如,触发)图6B-6O中图示的操作。在一些实施例中,当第一输入616或第一部分616-1具有预定义路径特征(例如,不动,正如关于按下并保持手势的情况,或者基本上线性,正如轻扫/拖拽手势中的情况)并且满足预定义强度准则(例如,超过预定义强度阈值)时,执行(例如,触发)图6B-6O中图示的操作。为了解释的目的,下面将图6B-6O中图示的操作描述为通过超过如强度示意图618中示出的轻压阈值ITL的按下并保持手势来触发。
图6C图示了便携式多功能设备100对当便携式多功能设备100显示用户界面600时检测到的第一输入616的第一部分616-1的(从图6B的)延续的响应。具体地,如图6B-6D所示,响应于检测到第一输入616的第一部分616-1,便携式多功能设备100利用在用户界面600内对由相机在采集代表性图像602-3之后采集的一个或多个图像的显示来替代在用户界面600内对代表性图像的显示。根据一些实施例,当检测到第一输入616的第一部分616-1时,顺序显示由相机在采集代表性图像602-3之后采集的一个或多个图像。为此,图6C图示了对图像602-4的显示,图像602-4是在图像序列602中的代表性图像602-3之后采集的下一图像。在图像602-4中,猫612已经在使它的背滚在地上之后站起来并且开始走开。鸟614保持栖息在树中。因此,图像602-4是在相应图像602-3之后拍摄的图像。
图6D图示了便携式多功能设备100对当便携式多功能设备100显示用户界面600时检测到的第一输入616的第一部分616-1的(从图6C的)延续的响应。在图6D中,便携式多功能设备100利用在用户界面600内对图像602-5的显示来替代在用户界面600内对图像602-4的显示,图像602-5是由相机在采集图像序列602中的代表性图像602-3之后采集的最后一个图像。因此,图6A-6D图示了其中在图像序列602中存在在代表性图像602-3之后采集的两个图像的示例。然而,应当理解,在各种实施例和/或情况下,图像序列可以包括由相机在采集代表性图像602-3之后采集的不同(例如,整数)数量的图像(例如,2个、5个、10个或20个图像)。
在图像602-5中,猫612已经部分走出视场,并且鸟614保持栖息在树中(例如,图像602-5是在相应图像602-4之后拍摄的图像)。因此,图6B-6D图示了如下示例:其中根据一些实施例足够深的按下并保持手势使得增强型照片从代表性图像开始向前或者往前显示,由此创建图像活灵活现的印象。在一些实施例中,除非第一输入616在第一部分616-1期间被终止,第一输入616的第一部分616-1持续顺序地替代由相机在采集代表性图像602-3之后采集的图像序列602中的所有图像花费的时间量(例如,具有顺序地替代由相机在采集代表性图像602-3之后采集的图像序列602中的所有图像花费的时间量的持续时间)。在这样的实施例中,在顺序地替代由相机在采集代表性图像602-3之后采集的图像序列602中的所有图像花费的时间量进行的第一输入616的部分不被认为是第一部分616-1的部分,而是相反被认为是如下面所描述的第一输入616的后续部分。
在一些实施例中,响应于检测到第一输入616的第一部分616-1,以基于如强度示意图618中所示的第一输入616的第一部分616-1中的接触的强度的速率(例如,显示的速率随着第一输入616的第一部分616-1中的接触的强度增大而增大,并且显示的速率随着第一输入616的第一部分616-1中的接触的强度减小而减小)顺序显示由相机在采集代表性图像602-3之后采集的一个或多个图像。在一些实施例中,在第一输入616的第一部分616-1期间对图像序列602的顺序显示期间,便携式多功能设备100在图像序列602中的每个相应图像上停留与当相应图像被显示时第一输入616的特征强度成比例(或成反比例)的持续时间。因此,例如,在这样的实施例中,便携式多功能设备100在代表性图像602-3(图6B)和图像602-4(图6C)上比在图像602-5(图6D)上停留更短的时间段,因为第一输入616的强度在对代表性图像602-3(图6B)和图像602-4(图6C)的显示期间比在对图像602-5(图6D)的显示期间更高,如由相应图中的强度示意图618所示。
在一些实施例中,在显示速率对第一输入616中的接触强度的该初始依赖性之后,(响应于检测到如下面所描述的第一输入616的稍后部分)独立于第一输入616的稍后部分中的接触强度,以固定显示速率进行对图像序列602的后续显示。因此,例如,便携式多功能设备100在图像602-1(图6E)和图像602-2(图6F)上停留等同的持续时间,尽管存在如由相应图中的强度示意图618示出的第一输入616的强度的差异。
在一些实施例中,如下面参考图6E-6I所描述的,在便携式多功能设备100响应于检测到第一输入616的第一部分616-1显示由相机在采集代表性602-3之后采集的一个或多个图像之后,设备100响应于第一输入616的第二部分616-2来回循环并显示整个图像序列602(或者显示整个图像序列602,只要第一输入616和/或其强度被维持)。在一些实施例中,当图像序列602被循环或再次显示时,从图像序列602的结束到图像序列602的开始显示交叉淡变(cross fade)动画。
图6E图示了如下情形:其中,在检测到第一输入616的第一部分616-1之后,便携式多功能设备100检测第一输入616的第二部分616-2(例如,便携式多功能设备100继续检测手指手势中的足够的接触和/或强度)。响应于检测到第一输入616的第二部分616-2(如图6E-6I所示),便携式多功能设备100在用户界面600内顺序显示由相机在采集代表性图像616-3之前采集的一个或多个图像(例如,图6E的图像616-1和图6F的图像616-2)、代表性图像602-3(图6G)以及由相机在采集代表性图像之后采集的一个或多个图像(例如,图6H的图像602-4和图6I的图像602-5)。因此,在一些实施例中,响应于检测到第一输入616的第二部分616-2,从整个图像序列602的初始图像到最终图像显示该序列(除非,例如第一输入616被中断)。
在一些实施例中,第一输入616的第二部分616-2是与第一输入616的第一部分616-1连续并紧跟在其后的部分。在一些实施例中,除非第二输入616在第一部分616-2期间被终止,第二输入616的第一部分616-2持续顺序地替代图像序列602中的所有图像花费的时间量(例如,具有顺序地替代图像序列602中的所有图像花费的时间量的持续时间)。
在图像602-1(图6E)中,猫612开始进入视场,并且鸟614尚未停落在栖枝上。在图像602-2(图6F)中,猫612已经完全进入视场,并且鸟614已经停落在栖枝上。因此,图像602-2是在602-1之后拍摄的图像,并且图像602-1和602-2两者都是在代表性图像602-3(图6G)之前拍摄的。(相应图像在它们被显示在其中的各个图中是相同的。例如,图像602-4与图6C和图6H中的相同。为简洁起见,已经参考其他图描述的这些图的各个方面不再重复)。
在一些实施例中,在第一输入616的第一部分616-1期间对由相机在采集代表性图像602-3(如图6B-6D所示)之后采集的一个或多个图像的顺序显示与在第一输入616的第二部分616-2期间对整个图像序列602(如图6E-6I所示)的顺序显示之间的一个差别在于,响应于检测到第一输入616的第二部分616-2,便携式多功能设备100(例如,经由扬声器111)呈现与图像序列602相对应的音频620。这在图6F-6I中由源自于鸟614的词语“吱吱吱吱”图示。(在该示例中,词语“吱吱吱吱”没有出现在图像中,但是被提供在图中以指示由扬声器111产生的音频)。在一些实施例中,响应于检测到第一输入616的第二部分616-2,一起显示整个图像序列602以及当采集图像序列602时记录的对应音频620。在一些实施例中,响应于检测到第一输入616的第一部分616-1不呈现音频。在一些实施例中,如果在对图像序列602的第一完整回放之后(例如,响应于检测到第一输入616的第二部分616-2)维持第一输入616,不再次在对该序列的后续回放期间响应于继续检测到第一输入616而呈现音频(如参考图6J-6M所解释的,图6J-6M图示了整个图像序列602的第二回放)。在一些实施例中,针对给定输入,在对图像序列602的第一完整回放期间仅仅呈现音频。在一些实施例中,针对给定输入,在对图像序列602的不同的后续回放(例如,对图像序列602的不同的第二完整回放)期间或者在许多预定义回放(例如,对图像序列602的第一完整回放和第二完整回放)期间仅仅呈现音频。
在一些实施例中,响应于(例如,在第一完整回放期间)检测到第一输入616的第二部分616-2,以固定速率(例如,以与图像被获得的速率相同的速率,也被称为“1x”速率)顺序显示图像序列602。例如,在一些实施例中,在第一完整回放期间以1x速率呈现音频,并且以1x速率显示对应的图像序列602,给予回放自然外观和声音。在一些实施例中,1x速率意味着便携式多功能设备100在相应图像上停留与在获得相应图像与下一图像之间经过的时间量基本上相同的时间量。
在一些实施例中,独立于第一输入616中的接触的强度,以固定速率来顺序显示图像序列602中的图像。例如,便携式多功能设备100在图像602-1(图6E)和图像602-2(图6F)上停留相同的时间长度,尽管存在相应图中的强度示意图618中示出的不同输入强度。在一些实施例中,在第一输入616的第二部分616-2期间,图像序列602被顺序显示的速率取决于第一输入616的接触的强度。例如,速率随着接触的强度增大而增大。
在一些实施例中,如下面参考图6J-6M所描述的,在便携式多功能设备100响应于检测到第一输入616的第二部分616-2显示图像序列602(例如,该设备完成对图像序列602的第一完整回放)之后,设备100响应于第一输入616的第三部分616-3来回循环并显示整个图像序列602(例如,只要第一输入616和/或其强度被维持)。在一些实施例中,当图像序列602被循环或再次显示时,从图像序列602的结束到图像序列602的开始显示交叉淡变动画。
图6J-6M图示了如下情形:其中,在检测到第一输入616的第二部分616-2之后,便携式多功能设备100检测第一输入616的第三部分616-3(例如,便携式多功能设备100继续检测手指手势中的足够的接触和/或强度)。响应于检测到第一输入616的第三部分616-3,便携式多功能设备100在用户界面600内顺序显示由相机在采集代表性图像602-3之前采集的一个或多个图像(例如,图6J的图像602-1和图6K的图像602-2)、代表性图像616-3(图6L)以及由相机在采集代表性图像之后采集的一个或多个图像(例如,图6M的图像602-4)。然而,在示出的示例中,第一输入616在第三部分616-3期间被终止,从而得到下面更详细地描述的不同功能。因此,在一些实施例中,响应于检测到第一输入616的第三部分616-3,从整个图像序列602的初始图像到最终图像显示该序列,除非在完成对整个图像序列602的显示之前第一输入616被中断(例如,中止)。在一些实施例中,只要第一输入616被维持,循环就继续,尽管不同功能和/操作可选地可用于不同循环上(或被执行在不同循环上)。例如,如以上所描述的,便携式多功能设备100在第一完整回放上提供音频。类似地,在一些实施例中,响应于检测到第一输入616的第三部分616-3,并且显示第二完整回放,便携式多功能设备100显示与图像序列602相对应的元数据622(例如,示出与图像序列602相关联的日期、时间、位置或任何其他信息)。
如以上所指出的,图6J-6O图示了其中在第三部分616-3期间第一输入616被中止(例如,通过抬离或者强度下降到如由图6N的强度示意图618示出的预定义阈值IT0以下)的示例。图6N-6O图示了根据一些实施例响应于在第三部分616-3期间第一输入616的终止(例如,中止或暂停)进行的操作。在一些实施例中,当第一输入616的第二部分616-2或第一部分616-1期间第一输入616被终止时执行类似的操作。在一些实施例中,当第一输入616被终止时,便携式多功能设备100确定当前显示的图像是出现在代表性图像602-3之前还是之后。当当前显示的图像出现在如图6N-6O所示出的代表性图像602-3之后(例如,在其之后被拍摄),便携式多功能设备100按反向时间顺序从当前显示的图像(例如,图6N的图像602-4)到代表性图像602-3顺序显示图像序列602(例如,便携式多功能设备100回溯到代表性图像602-3)。相反,当当前显示的图像出现在代表性图像602-3之前(例如,在其之前被拍摄),便携式多功能设备100按时间顺序从当前显示的图像到代表性图像602-3顺序显示图像序列602(例如,便携式多功能设备100以向前顺序推进(advance)循环直到代表性图像602-3)。
在一些情况下,经分组的图像序列关于其代表性图像是不对称的,意味着存在在代表性图像之前和在代表性图像之后出现的不等同数量的图像。在一些实施例中,便携式多功能设备100确定是在向前时间顺序方向上还是在反向时间顺序方向上在当前显示的图像与代表性图像之间存在较少的图像。便携式多功能设备100之后以在当前显示的图像与代表性图像之间具有较少图像的那个方向顺序显示(例如,遍历)图像序列。
图6P-6V图示了其中用户通过控制按下并保持手势636的强度来控制对经分组的图像序列中的图像的显示的实施例。图6P与图6A类似并且被提供作为用于描述图6Q-6V中的功能的起点。在一些实施例中,当按下并保持手势636满足预定义准则时,触发针对图像序列602的回放功能。例如,当相应按下并保持输入保持在按下阈值ITL以下时,便携式多功能设备100将不会响应于按下并保持手势而替代对代表性图像602-3的显示(例如,便携式多功能设备100将代替地执行不同的功能)。相反,当如图6Q所示的按下并保持手势636超过轻压阈值ITL时,便携式多功能设备100将(强度示意图618中示出的)按下并保持手势636的强度映射到图像序列602中的图像中的至少一些图像。例如,因为在图6Q中触发针对图像序列602的回放功能,所以当按下并保持手势636的强度处于强度范围618-3(图6Q和图6U)中时便携式多功能设备100显示代表性图像602-3。类似地,当按下并保持手势636的强度处于强度范围618-1中时便携式多功能设备100显示图像602-1;当按下并保持手势636的强度处于强度范围618-2(图6V)中时显示图像602-2;当按下并保持手势636的强度处于强度范围618-4(图6T和图6R)中时显示图像602-4;并且当按下并保持手势636的强度处于强度范围618-5(图6S)中时显示图像602-5。因此,图6Q-6V图示了用户的基于用户输入的强度(例如,得到向后和向前平滑动画显示对经分组的图像序列中的图像的替代)来向后(或往回)和向前(或往前)刷动经分组的图像序列中的图像(例如,直接控制经分组的图像序列中的显示的图像)的能力。
图6W图示了其中用户通过控制输入强度654来控制对在经分组的图像序列656中的代表性图像之后获得的图像的显示的实施例。在图6W中示出的示例中,在轻压阈值ITL与深压阈值ITD之间的强度值映射到在经分组的图像序列656中的代表性图像之后获得的相应图像。图6W中示出的强度示意图图示了映射到如由它们的箭头指示的在经分组的图像序列656中的代表性图像之后获得的特定图像的输入强度654。所以当输入超过轻压阈值ITL时,用户可以通过控制输入的强度来向前并且之后向后刷动通过在经分组的图像序列中的代表性图像之后获得的图像。在一些实施例中,当输入超过深压阈值ITD时,以固定速率替代(例如,推进)经分组的图像序列656(例如,该设备以固定速率回放经分组的图像序列656,在经分组的图像序列656中的最终图像被显示之后循环回到开始)。图6W还图示了与经分组的图像序列656相关联的(例如,并且与如以上所描述的经分组的图像序列658一起提供的)音频658和元数据660。
图6X图示了与参考图6A-6O描述的实施例大体类似的实施例,除了设备100对用户输入的初始部分的响应与参考图6A-6O描述的那些实施例不同。具体地,在图6X中图示的实施例中,响应于检测到第一输入的第一部分(例如,与参考图6A-6O描述的那些类似的用户输入),设备100通过直接转变到图像序列中的初始图像(例如,如示意图656所示)或者通过简单地向前播放图像序列(例如,通过向前播放几个图像,如示意图650所示)并且之后交叉淡变到初始图像(例如,而非最初向前播放图像序列直到图像序列中的最终图像)来开始回放。
在图6X中,在用户输入648期间的回放由一个或多个曲线(例如,曲线662和/或取消664)表示。根据一些实施例,表示在用户输入648期间的回放的曲线的实线部分表示被回放的图像,而虚线部分表示不被回放的图像。
所以,例如,在示意图650中,设备100最初显示代表性图像652。响应于用户输入648,设备100向前播放三个图像(例如,或者一个图像或者十个图像)到图像660,之后利用对初始图像654的显示来替代对图像660的显示。设备100之后根据以上参考图6A-6O描述的实施例中的任何来将图像序列从初始图像654向前播放(例如,在后续循环上循环通过具有声音、元数据、等等的增强型照片)。因此,设备100通过显示在代表性图像652之后采集的一个或多个图像来从显示代表性图像652转变到显示初始图像654(或者任何其他相应先前图像)。在一些实施例中,设备100将代表性图像652和/或在代表性图像之后采集的图像中的一个或多个交叉淡变和/或模糊到初始图像654中。
作为另一示例,在示意图656中,设备100最初显示代表性图像652。响应于用户输入648,设备100利用对初始图像654(或者任何其他相应先前图像)的显示来替代对代表性图像652的显示。设备100之后根据以上参考图6A-6O描述的实施例中的任何来将图像序列从初始图像654向前播放(例如,在后续循环上循环通过具有声音、元数据、等等的增强型照片)。因此,设备100从显示代表性图像652直接转变到显示初始图像654。在一些实施例中,设备100将代表性图像652交叉淡变和/或模糊到初始图像654中。
在一些实施例中,如示意图656所示,从显示代表性图像652转变到显示初始图像654(例如,相应先前图像)不包括显示由相机在采集代表性图像652之后采集的一个或多个图像中的任何(例如,该设备不直走回到初始图像654)。
在一些实施例中,设备100基于用户输入648的特征(例如,第一输入648的第一部分的特征接触强度)来确定要应用哪种转变(例如,示意图650中示出的转变或者示意图656中示出的转变)。例如,当第一输入648的第一部分超过深压阈值ITD(如示意图668-2所示)时,设备100根据示意图656来转变。当第一输入648的第一部分没有超过深压阈值ITD(如示意图668-1所示)时,设备100根据示意图650来转变。
在一些实施例中,在对图像序列的采集期间采集的某些图像在生成图像序列时被丢弃或融合。例如,在图像序列中丢弃(例如,不包括)模糊图像,并且/或者一个或多个暗场图像被组合以提高图像序列中的图像的质量。在一些情况下,丢弃和/或融合图像得到在时间上不均匀地隔开的图像序列。例如,如果由相机每秒采集十个图像,但是三个图像被融合以形成图像序列中的相应单个图像,则相应单个图像表示比图像序列中的其他图像更大的时间通道。因此,在一些实施例中,根据对图像序列内的图像的移除和/或融合来对图像序列的回放进行重新定时(例如,在以上示例中,当以1x回放播放图像序列时,设备100在相应单个图像上停留0.3秒,或者其另外将停留的时间三倍之长)。
根据一些实施例,图6Y-6BB图示了最初显示图像序列中的第一图像(例如,增强型照片)的用户界面。用户界面根据用户输入的接触的强度以下面的方式向前或向后播放图像序列:高于阈值的强度范围映射到移动通过图像序列的向前速率,而低于阈值的强度范围映射到移动通过图像序列的向后速率。在一些实施例中,用户界面不对图像序列进行循环。所以,当初始图像被显示时,具有高于阈值的强度的接触以与接触强度成比例的速率向前播放图像并且当达到最终图像时停止。当用户放松接触使得接触强度下降到阈值以下时,该设备以基于接触强度的速率向后播放图像并且当达到初始图像时停止。
图6Y图示了用户界面640。在一些实施例中,用户界面640是锁屏用户界面。例如,用户可以锁定设备100使得她可以将设备100放入到她的口袋中而不会无意地在设备100上执行操作(例如,意外地呼叫某人)。在一些实施例中,当用户(例如,通过按下任何按钮)唤醒设备100时,锁屏用户界面640被显示。在一些实施例中,触摸屏112上的轻扫手势发起对设备100进行解锁的过程。
便携式多功能设备100在用户界面640中显示经分组的图像序列602中的代表性图像602-1。在一些实施例中,图像序列602是用户已经为她的锁屏挑选的(例如,在设置用户界面中挑选的)增强型照片。在图6Y-6BB中示出的示例中,图像序列是描绘了其中猫612走到视场中并且使它的背滚在地上的场景的增强型照片。同时,鸟614停落在树枝上。在一些实施例中,图像序列包括在采集代表性图像之后采集的一个或多个图像(例如,代表性图像602-1是图像序列中的初始图像)。
在一些实施例中,用户界面640还包括快速访问信息642,例如时间和日期信息。
当在触摸屏112上显示代表性图像602-1时,设备100检测针对其在触摸屏112上的接触的特征强度超过强度阈值的输入644(例如,按下并保持手势)。在该示例中,强度阈值是轻压阈值ITL。如示意图618(图6Y)所示,输入644包括超过轻压阈值ITL的接触。
响应于检测到接触的特征强度的增大,该设备按时间顺序以至少部分基于输入644的接触的特征强度确定的速率推进通过在采集代表性图像602-1之后采集的一个或多个图像。所以,例如,以如速率示意图646(图6Y)中指示的基于强度示意图618(图6Y)中示出的接触强度的速率利用对图像602-2(图6Z)的显示来替代对代表性图像602-1(图6Y)的显示。图像602-2是图像序列602中的在代表性图像602-1之后采集的图像。以如速率示意图646(图6Z)中指示的基于强度示意图618(图6Z)中示出的接触强度的更快速率利用对图像602-3(图6AA)的显示来替代对图像602-2(图6Y)的显示。图像602-3是图像序列602中的在图像602-2之后采集的图像。
在图6AA中,输入644的接触的强度下降到ITL以下,其在该示例中是用于向后或向前播放通过图像序列602的阈值。结果,以基于输入644的当前接触强度的向后速率利用先前图像602-2(图6BB)来替代图像602-3(图6AA)。
在一些实施例中,速率示意图646(图6Y-6AA)中指示的速率与在如强度示意图618(图6Y-6AA)中示出的ITL与输入644的当前接触强度之间的差的绝对值成比例。移动的方向基于当前接触强度是高于(例如,向前移动)还是低于(例如,向后移动)ITL(或者任何其他适当的阈值)。
在一些实施例中,向前速率或向后速率实时地或接近实时地被确定,使得用户可以通过改变接触的特征强度来加速或放慢(在前向方向或向后方向上)通过图像的移动。因此,在一些实施例中,用户可以通过增大和减小用户输入644的接触强度来向前和向后刷动通过图像序列602(例如,在图像序列中的初始图像与最终图像之间中)。
根据一些实施例,图6CC-6DD是图示了移动的速率V如何与输入644的当前接触强度I相关的图形。
如图6CC所示,在该示例中,针对向前移动/向后移动的阈值是轻压阈值ITL。当输入644的当前接触强度等于轻压阈值ITL时,设备100不按时间顺序或按反向时间顺序推进通过图像序列。因此,设备100维持来自图像序列602的当前显示的图像(例如,移动的速率等于0x,其中1x是图像序列602中的图像被采集的速度)。当输入644的当前接触强度刚刚高于轻压阈值ITL时,设备100以第一速率(例如,0.2x)按时间顺序或推进通过图像序列。当输入644的当前接触强度是在轻压阈值ITL以下的相同量时,设备100以第一速率(例如,-0.2x,其中负号表示反向时间顺序或向后回放)按反向时间顺序或推进通过图像序列。
在该示例中,设备100具有当输入644的当前接触强度达到深压阈值ITD(或任何其他上限阈值)和提示阈值ITH(或任何其他适当的下限阈值)时达到的最大速率Vmax(例如,正或负2x)。当在触敏表面上检测到接触时,移动通过图像序列的速率受最大反向速率约束。
图6DD示出了其中移动的速率在轻压阈值ITL与深压阈值ITD之间从0x以指数方式增大到Vmax的示例性响应曲线。在深压阈值ITD以下,移动的速率是恒定的。
根据一些实施例,某些条件可选地导致设备100偏离仅仅基于输入644的当前接触强度的移动的速率。例如,当设备100当向前推进通过图像序列602时接近最终图像时,与在移动的速率为仅仅基于输入644的当前接触强度的情况下的移动的速率相比较,设备100放慢移动的速率(例如,设备100当其到达图像序列的结束时轻微地“制动”)。类似地,在一些实施例中,当设备100当向后推进通过图像序列602时接近初始图像时,与在移动的速率为仅仅基于输入644的当前接触强度的情况下的移动的速率相比,设备100放慢移动的速率(例如,设备100当其到达图像序列后退的开始时轻微地“制动”)。
图6EE-6FF图示了其中在针对消息收发应用(例如,来自加利福尼亚库比蒂诺的苹果公司的”消息”)的用户界面680中显示和/或回放图像序列602的实施例。在一些实施例中,图像序列602是显示在消息收发应用的可滚动区域682中的消息对话(例如,用户可以向上滚动或向下滚动以在区域682中查看较早的或较新的消息)。在一些实施例中,代表性图像602-3最初被显示在消息收发应用680中。在一些实施例中,图像序列602响应于轻扫手势/拖拽手势来显示(例如,回放)。在一些实施例中,对图像序列602中的图像的显示由拖拽手势的位置来控制(例如,用户可以通过将拖拽手势分别移动到右边或左边来在图像序列602中向前或向后刷动)。例如,在图6EE-6FF中,接触686从位置686-1(图6EE)移动到位置686-2(图6FF),其将图像序列602从代表性图像602-3(图6EE)推进图像602-4(图6FF)。
在一些实施例中,轻扫手势在轻扫手势的终止(例如,抬离)触发对图像序列602的回放。在一些实施例中,图像序列602不在拖拽手势期间回放而是相反直到拖拽手势的终止(例如,抬离)才回放。在一些实施例中,图像序列602响应于按下并保持手势而回放(例如,消息收发应用680中的图像序列602根据参考图6A-6DD描述的实施例中的任何来回放)。在一些实施例中,消息收发应用680中的图像序列602根据参考图7A-7CC描述的实施例中的任何来回放。
在一些实施例中,图像序列602随着消息收发应用的可滚动区域被滚动而被显示(例如,被回放),并且图像在一些情况下被穿插在经由消息收发应用发送和接收的(例如,在对话气泡中)文本消息684或其他消息中。在一些情况下,用户可能已经在她自己的便携式多功能设备100上获得(例如,拍摄、捕获)相应图像序列,并且也已经(例如,在消息收发应用中)接收到来自不同用户的不同图像序列。因此,在一些情况下,存储在便携式多功能设备100上的多个图像序列包括使用便携式多功能设备100获得的至少一个图像序列和使用与便携式多功能设备100完全不同的不同设备上的相机获得的至少一个图像序列。
图7A-7CC图示了根据一些实施例的用于导航通过相关图像序列(有时被称为增强型照片)的示例性用户界面。这些附图中的用户界面被用于说明下面描述的过程,包括图9A-9G、10A-10M、11A-11I、12A-12B、24A-24E、25A-25C、26A-26D和27A-27E中的过程。尽管将参考与触摸屏显示器(其中触敏表面和显示器被组合,如在便携式多功能设备100上示出的)上的输入给出下面的示例,但是在一些实施例中,所述设备检测如图4B中所示出的与显示器450分离的触敏表面451上的输入。
便携式多功能设备100显示用户界面700。用户界面700可选地包括一个或多个工具条。例如,如所示出的,用户界面700包括包含多个可供件706(例如,允许用户使用电子邮件、消息收发或其他应用将第一图像序列702发送到其他用户的发送可供件706-1;引出用于编辑第一图像序列702的用户界面的编辑可供件706-2;用户可以通过其指示第一图像序列702是其收藏之一的收藏可供件706-3;以及允许用户删除图像序列702的删除可供件706-4)的操作工具条704。作为另一示例,用户界面700包括包含另一多个可供件(例如,导航到用于导航用户的照片的所有照片可供件710-1;导航到诸如用于获得照片的用户界面的不同用户界面的“完成”可供件710-2)的导航工具条706。
图7A-7CC图示了如下示例:其中便携式多功能设备100存储多个图像序列(例如,7A-7CC的第一图像序列702、第二图像序列724、第三图像序列726和第四经分组的图像序列760)。首先,第一经分组的图像序列702包括由相机拍摄的第一代表性图像702-3(图7A)、由相机在采集第一代表性图像702-3之后采集的一个或多个图像(例如,图7C的图像702-4和图7D的图像702-5)以及由相机在采集第一代表性图像702-3之前采集的一个或多个图像(例如,图7H的图像702-2和图7I的图像702-1)。因此,第一图像序列702的时间顺序(例如,由相机拍摄图像的顺序)为:图像702-1、图像702-2、图像702-3、图像702-4以及图像702-5。
第一图像序列702描绘了其中猫712走到视场中、使它的背滚在地上并且站起来并走开的场景。同时,鸟714停落在树枝上。当在现实中,这样的场景可能花费几秒来展现,但是在一些实施例中,第一图像序列702在短时间窗口中被捕获。例如,在一些实施例中,本文中描述的图像序列中的任何可以描绘围绕获得其相应代表性图像时的片刻(例如,在半秒或一秒内)的片刻。例如,用户的兴趣可能当猫712开始在草地中打滚时已经被挑动,提醒用户拍摄第一代表性图像702-3。在一些实施例中,第一图像序列702包括刚好在获得代表性图像702-3之前的图像和刚好在在获得第一代表性图像702-3之后的图像,使得第一图像序列702包括增强型照片,该片刻通过增强型照片当用户执行(如本文中描述的)关于代表性图像602-3的某些操作时可以“活灵活现”。
第二经分组的图像序列724包括第二代表性图像724-3(图7F)和由相机在采集第二代表性图像724-3之前采集的至少一个或多个图像(例如,图7C的图像724-1和图7D的图像724-2)。第二图像序列724包括由相机在采集第二代表性图像724-3之后采集的一个或多个图像。因此,第二图像序列724的时间顺序(例如,由相机拍摄图像的顺序)为:图像724-1、图像724-2以及图像724-3。第二图像序列724描述如下场景:其中海鸥728在一定距离上飞翔(图7C的图像724-1),朝向前景飞翔(图7D的图像724-2)并且开始再次飞远(图7F的图像724-3)。
第三经分组的图像序列726包括第三代表性图像726-1和由相机在采集第三代表性图像726-1之后采集的至少一个或多个图像(例如,图7H的图像726-3和图7I的图像724-2)。第三图像序列726包括由相机在采集第三代表性图像726-1之前采集的一个或多个图像。因此,第三图像序列726的时间顺序(例如,由相机拍摄图像的顺序)为:图像726-1、图像726-2以及图像726-3。第三图像序列726描绘了如下场景:其中鲸鱼730跃出水面(图7K的图像726-1),甚至在船732的视场中游泳(图7I的图像726-2),并且从视场中消失,已经潜入到海洋中(图7H的图像726-3)。
第四经分组的图像序列760包括第四代表性图像760-3和由相机在采集第四代表性图像760-1之前采集的至少一个或多个图像(例如,图7V的图像760-1和图7W的图像760-2)。因此,第四图像序列760的时间顺序(例如,由相机拍摄图像的顺序)为:图像760-1、图像760-2以及图像760-3。第四图像序列760描述如下场景:其中烟花筒762发射(图7V的图像760-1),在空中飞行(图7W的图像760-2)并且爆炸(图7X的图像760-3)。
在一些实施例中,第一图像序列702由相机在第二图像序列724之前采集,并且第一图像序列702由相机在第三图像序列726之后采集。
在一些实施例中,用户界面700是图像管理应用中的用户界面(例如,来自加利福尼亚库比蒂诺的苹果公司的“照片”)。为此,在一些实施例中,拍摄第一图像序列702(和/或第二图像序列724;第三图像序列726;等等)的相机是便携式多功能设备100的部分(例如,相机包括图1A的光学传感器164连同成像模块143)。在一些实施例中,第一图像序列702由不为便携式多功能设备100的相机拍摄(例如,第一图像序列702在利用另一设备上的相机被拍摄之后被传输到便携式多功能设备100)。在一些实施例中,第一图像序列702响应于检测到在第一时间处对快门按钮的激活而获得,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。在一些实施例中,第一代表性图像702-3与由相机采集的代表性图像相对应,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。
在一些实施例中,多个图像序列中的一些是使用便携式多功能设备100采集的,并且一些是在利用不同设备上的相机被拍摄之后被传输到便携式多功能设备100的。例如,在一些情况下,用户可以如关于方法900/2600所描述的获得(例如,拍摄、捕获)多个设备(例如,平板计算机、笔记本计算机和/或数字相机,除了便携式多功能设备100之外的所有设备)上的图像序列并且将图像序列同步或另外传输到便携式多功能设备100上。
在一些实施例中,用户界面700是消息收发应用中的用户界面(例如,来自加利福尼亚库比蒂诺的苹果公司的”消息”)。在一些实施例中,第一图像序列702是显示在消息收发应用的可滚动区域中的消息对话,并且第一图像序列702随着消息收发应用的可滚动区域被滚动而被显示,并且图像在一些情况下被穿插在经由消息收发应用发送和接收的(例如,在对话气泡中)文本消息或其他消息中。在一些情况下,用户可能已经在她自己的便携式多功能设备100上获得(例如,拍摄、捕获)相应图像序列,并且也已经(例如,在消息收发应用中)接收到来自不同用户的不同图像序列。因此,在一些情况下,存储在便携式多功能设备100上的多个图像序列包括使用便携式多功能设备100获得的至少一个图像序列和使用与便携式多功能设备100完全不同的不同设备上的相机获得的至少一个图像序列。
在一些实施例中,代表性图像702-3被显示在用户界面700中(例如,当用户滚动通过她的图像或消息时被显示在图像管理应用或消息收发应用中)。
图7A图示了用户界面700。便携式多功能设备100在用户界面700中将第一代表性图像702显示在触摸屏112上的可移动第一区域734中。应当理解,可移动第一区域734的边界不总是被显示在触摸屏112上并且被提供以辅助对附图的描述。
图7B图示了检测触摸屏112上的(在位置736-1处开始的)拖拽手势736的便携式多功能设备100。在一些实施例中,根据拖拽手势736满足预定义准则(例如,预定义的下一照片导航准则显示准则)的确定来执行图7B-7K中图示的操作。例如,在一些实施例中,当拖拽手势736具有预定义路径特征(例如,拖拽手势736由横向(或垂直)速度表征;即,拖拽手势在图7A-7CC中示出的定向上比起上下(或并排)更多的是并排(或上下))时执行(例如,触发)图7B-7F中图示的操作。在一些实施例中,便携式多功能设备100包括用于检测与触摸屏112的接触的强度的一个或多个传感器,并且当拖拽手势736具有满足(例如,达到)预定义强度准则(例如,超过如在本文档中的其他地方描述的轻压阈值ITL)的特征强度时,执行(例如,触发)图7B-7F中图示的操作。在一些实施例中,当拖拽手势736具有预定义路径特征(例如,拖拽手势736由横向速度表征)并且满足预定义强度准则(例如,超过预定义强度阈值)时执行(例如,触发)图7B-7F中图示的操作。
如图7A中示出的用户界面700以图像呈现模式图示了对第一代表性图像702-3的显示。在一些实施例中,如图7A所示,可移动第一区域734是显示第一图像序列中的图像而不显示来自除了第一图像序列之外的图像序列的图像的区域。
在图7B中,拖拽手势736是向左的。因此,便携式多功能设备100将第一区域734移动到左边,如图7C-7D所示。另外,便携式多功能设备100在用户界面700的可移动第一区域734中利用对由相机在采集第一代表性图像702-3之后采集的用于第一图像序列702的一个或多个图像中的至少一些图像(即,图7C的图像702-4和图7D的图像702-5)按时间顺序的显示来替代对第一代表性图像702-3的显示。即,便携式多功能设备100在第一区域中显示对第一图像序列702的动画显示。
在一些实施例中,在第一区域734中对由相机在采集第一代表性图像之后采集的用于第一图像序列702的一个或多个图像中的至少一些图像按时间顺序的显示根据拖拽手势736中的接触的移动出现。因此,如果拖拽手势736到左边的移动加速,则在第一区域734中对图像的时间进度的显示加速。因此,如果拖拽手势736到左边的移动放慢,则在第一区域734中对图像的时间进度的显示放慢。因此,如果拖拽手势736到左边的移动暂停,则在第一区域734中对图像的时间进度的显示暂停。并且,如果拖拽手势736的移动反转方向(例如,从向左拖拽手势到向右拖拽手势),则在第一区域734中对第一图像序列702中的图像的进展的显示被反向,并且图像根据在反转方向上对拖拽手势736的移动按反向时间顺序被示出。更一般地,在一些实施例中,针对相应图像序列,对相应图像序列中的图像的进展的显示根据拖拽手势中的接触的移动出现。
在一些实施例中,用户通过以预定义方式更改拖拽手势736的一个或多个特征来触发图6A-6FF中示出的操作。例如,在一些实施例中,当用户暂停拖拽手势736并且更深地按下到触摸屏112上时,便携式多功能设备100回放第一图像序列702,如参考图6A-6FF所描述的,即使仅仅第一区域734的一部分处于显示器上。在一些实施例中,便携式多功能设备100被配置为检测拖拽手势736的一个或多个特征的改变或修改。
图7C-7D还图示了在一些实施例中,根据向左拖拽手势736,便携式多功能设备100将第二区域738移动到左边。在一些实施例中,将第二区域738移动到左边包括从左边将第二区域738的至少部分移动到触摸屏112上。在一些实施例中,可移动第二区域738是显示第二图像序列724中的图像而不显示来自除了第二图像序列724之外的图像序列中的图像的区域(例如,第一图像序列702和第三图像序列726未被显示在可移动第二区域738中)。在一些实施例中,如图7C所示,可移动第二区域738与可移动第一区域734相邻(例如,在可移动第一区域734的右边)。在一些实施例中,当将第二区域738移动到左边时,便携式多功能设备100在第二区域738中按时间顺序显示由相机在采集第二代表性图像724-3之前采集的用于第二图像序列724的一个或多个图像中的至少一些图像。
在一些实施例中,对第一区域734的移动与对拖拽手势736的移动相对应。例如,在一些实施例中,在图7B与图7C之间对第一区域734的移动与在位置736-1(图7B)与736-2(图7C)之间的距离成比例。类似地,在一些实施例中,在图7C与图7D之间对第一区域734的移动与在位置736-2(图7C)与736-3(图7D)之间的距离成比例,因此给予用户拖拽可移动第一区域734的印象。在一些实施例中,如图7C-7D所示,将第一区域734移动到左边包括将第一区域734的至少部分移动离开触摸屏112、移动到左边。
在一些实施例中,如图7B-7D所示,第一区域734和第二区域738以相同速率跨触摸屏112移动(例如,在对第一区域734的移动的距离和对第二区域738的移动的距离与对拖拽手势736的移动的距离相对应)。在一些实施例中,如图7L-7P所示,第一区域734和第二区域738以不同速率移动。例如,在图7L-7P中,响应于拖拽手势752对第二区域738的移动小于响应于拖拽手势752对第一区域734的移动(例如,在对第一区域734的移动的距离与对拖拽手势752的移动的距离相匹配,并且在对第二区域738的移动的距离是对拖拽手势752的移动的距离的分数,例如50%)。
在一些实施例中,在第二区域738中对由相机在采集第二代表性图像724-3之前采集的用于第二图像序列724的一个或多个图像中的至少一些图像按时间顺序的显示根据拖拽手势736中的接触的移动出现(例如,以与以上关于第一图像序列702描述的类似的方式)。例如,在拖拽手势736期间,第一区域734中的图像和第二区域738的图像同时以相同速率推进,其中速率基于拖拽手势736的移动。在一些实施例中,例如如下面参考图7L-7P所描述的,在拖拽手势752期间,第一区域734中的图像和第二区域736中的图像以不同速率推进。例如,在图7L-7P中,第二区域中的图像响应于拖拽手势752推进的速率小于第一区域734中的图像响应于拖拽手势752推进的速率(例如,为第一区域734中的图像响应于拖拽手势752推进的速率的50%)。
在一些实施例中,作为图7B-7D中示出的示例的备选方案,当将第二区域738移动到左边时,第二区域738仅仅显示用于第二图像序列的第二代表性图像724-3而不显示第二图像序列724中的其他图像。
在一些实施例中,用户界面700包括下一个图标750-1(例如,图7A)和前一个图标750-2。在一些实施例中,类似于检测在第一方向上的拖拽手势,检测对下一个图标750-1的激活也导致在第一区域734中对来自第一图像序列702的图像的动画显示和在第二区域738中对来自第二图像序列724的图像的动画显示。在一些实施例中,检测对下一个图标750-1的激活导致对第二代表性图像724-3的显示替代对第一代表性图像702-3的显示,而没有在第一区域734中对来自第一图像序列702的图像的动画显示并且没有在第二区域738中对来自第二图像序列724的图像的动画显示。在一些实施例中,检测对下一个图标750-1的激活导致对第二代表性图像724-3的显示替代对第一代表性图像702-3的显示,而没有对第一序列或第二序列中的其他图像进行显示。
当关于拖拽手势736的向左/向右移动描述图7B-7D中出现的操作时,设想关于拖拽手势的向上/向下移动的类似的操作,并且旨在将其落入权利要求的范围内,除非另行明确陈述。例如,在一些实施例中,作为图7B-7D中示出的示例的备选,代替将第二区域738向左移动到触摸屏112上,当拖拽手势736是向左或向下手势时第二区域738在z层(前后)顺序中在第一区域734下面,并且当第一区域734移动离开触摸屏112移动到左边(或朝向底部)时第二区域738被显露(例如,揭开)。
如图7F所示,在一些实施例中,在将第二区域738移动到左边之后,如参考图7B-7D所描述的,便携式多功能设备100在用户界面700中显示第二代表性图像724-3。在一些实施例中,对第二代表性图像724-3的显示根据下面参考图7E-7F描述的操作出现。
如图7E所示,在一些实施例中,便携式多功能设备100当移动第一区域734和第二区域738时检测拖拽手势736的终止(例如,抬离)。作为响应,便携式多功能设备100确定拖拽手势736是否满足下一序列导航准则。例如,在一些实施例中,当对第一区域734的移动使得第一区域734离开触摸屏112超过一半(例如,第一区域734的中点已经被移动离开触摸屏112)时,下一序列导航准则被满足。在一些实施例中,如图7E所示,当对第一区域734和第二区域738的移动使得在第一区域734与第二区域738之间的边界740通过触摸屏112的中点742(或者在不以触摸屏112内为中心的情况下的用户界面700的中点或者任何其他适当的预定义点,例如跨用户界面700的三分之一或四分之一)时,下一序列导航准则被满足。在一些实施例中,当拖拽手势736的速度满足预定义速度准则时(例如,当拖拽手势736的平均速度或即时速度超过速度阈值时),下一序列导航准则被满足。在一些实施例中,当拖拽手势736的速度指示“轻弹”手势时,下一序列导航准则被满足。
如图7F所示,当下一序列导航准则被满足时,便携式多功能设备100(例如,通过将第一区域734进一步移动到左边直到第一区域734完全离开触摸屏112)将第一区域734完全移动离开触摸屏112并且(例如,通过将第二区域738进一步移动到左边直到第二区域738完全处于触摸屏112上)将第二区域738完全移动到触摸屏112上。结果,便携式多功能设备100显示第二代表性图像724-3(图7F)。因此,在一些实施例中,当下一序列导航准则被满足时拖拽手势736的终止给予用户将第二代表性图像724-3扣合(snap)到用户界面700上的印象。
相反,在一些实施例中,当下一序列导航准则未被满足时,便携式多功能设备100(例如,通过将第二区域738移动到右边直到第二区域738完全离开触摸屏112)将第二区域738完全移动离开触摸屏112并且(例如,通过将第一区域734移动回到右边直到第一区域734完全处于触摸屏112上)将第一区域734完全移动到触摸屏112上。结果,便携式多功能设备100再次显示第一代表性图像702-3(例如,返回到图7A中示出的视图)。因此,在一些实施例中,当下一序列导航准则未被满足时拖拽手势736的终止给予用户将第一代表性图像702-3扣合回到用户界面700上的印象。当便携式多功能设备100将第一区域734完全移动到触摸屏112上并且将第二区域738完全移动离开触摸屏112时,(例如,按反向时间顺序)向后显示第一图像序列702和第二图像序列724。
图7G-7K图示了与图7B-7F类似的特征,然而除了图7B-7F图示了根据一些实施例的下一序列导航,图7G-7K图示了根据一些实施例的前一序列导航。
图7G图示了检测触摸屏112上的(在位置744-1处开始的)拖拽手势744的便携式多功能设备100。在一些实施例中,根据拖拽手势744满足预定义准则(例如,预定义的前一照片导航准则显示准则)的确定来执行图7G-7K中图示的操作。在一些实施例中,用于导航朝向前一照片(例如,前一经分组的图像序列)的预定义准则与参考图7B-7F描述的用于导航朝向下一照片(例如,下一经分组的图像序列)的预定义准则类似,除了针对这两个的相应拖拽手势大体是以相反方向的(或至少大部分如此)。
图7G与图7B类似,除了当便携式多功能设备100显示第一代表性图像702-3时拖拽手势744处于拖拽手势736(图7B)的相反方向上。也就是说,在图7G中,拖拽手势744是向右的。因此,便携式多功能设备100将第一区域734移动到右边,如图7H-7I所示。另外,便携式多功能设备100在用户界面700的可移动第一区域734中利用对由相机在采集第一代表性图像702-3之前采集的用于第一图像序列702的一个或多个图像中的至少一些图像(即,图7H的图像702-2和图7I的图像702-1)的按反向时间顺序显示来替代对第一代表性图像702-3的显示。在一些实施例中,如以上参考图7B-7F所描述的,针对相应图像序列,在相应区域中对相应图像序列中的图像的进展的显示根据拖拽手势中的接触的移动出现(例如,从图7G的位置744-1到图7H的位置744-2到图7I的位置744-3的移动)。
图7H-7I还图示了在一些实施例中,根据向右拖拽手势744,便携式多功能设备100将第三区域746移动到右边。在一些实施例中,将第三区域746移动到右边包括将第三区域746的至少部分向右移动到触摸屏112上。在一些实施例中,可移动第三区域746是显示第三图像序列726中的图像而不显示来自除了第三图像序列726之外的图像序列中的图像的区域(例如,第一图像序列702和第二图像序列724未被显示在可移动第三区域746中)。在一些实施例中,如图7H所示,可移动第三区域746与可移动第一区域734相邻(例如,在可移动第一区域734的左边,与可移动第二区域738相反)。在一些实施例中,当将第三区域746移动到右边时,便携式多功能设备100在第三区域746中按反向时间顺序显示由相机在采集第三代表性图像726-1之前采集的用于第三图像序列726的一个或多个图像中的至少一些图像。
在一些实施例中,在第三区域746中对由相机在采集第三代表性图像726-1之后采集的用于第三图像序列726的一个或多个图像中的至少一些图像按反向时间顺序的显示根据拖拽手势744中的接触的移动出现(例如,以与以上关于第一图像序列702描述的类似的方式)。例如,在拖拽手势744期间,第三区域734中的图像和第二区域746的图像同时以相同速率倒退,其中速率基于拖拽手势744的移动。
在一些实施例中,类似于检测在第二方向上的拖拽手势744,检测对前一个图标750-2(例如,图7A)的激活也导致在第一区域734中对来自第一序列702的图像的动画显示和在第三区域744中对来自第三序列726的图像的动画显示。在一些实施例中,检测对前一个图标750-2的激活导致对第三代表性图像726-1的显示替代对第一代表性图像702-3的显示,而没有在第一区域734中对来自第一序列702的图像的动画显示并且没有在第三区域744中对来自第三图像序列724的图像的动画显示。在一些实施例中,检测对前一个图标750-2的激活导致对第三代表性图像726-1的显示替代对第一代表性图像702-3的显示,而没有对第一序列702或第三序列726中的其他图像进行显示。
在一些实施例中,作为图7G-7I中示出的示例的备选方案,当响应于拖拽手势744将第三区域746移动到右边时,第三区域746仅仅显示用于第三图像序列726的第三代表性图像726-1而不显示第三图像序列726中的其他图像。
当关于拖拽手势744的向左/向右移动描述图7G-7I中出现的操作时,设想关于拖拽手势的向上/向下移动的类似的操作,并且旨在将其落入权利要求的范围内,除非另行明确陈述。例如,在一些实施例中,作为图7G-7I中示出的示例的备选,代替将第三区域746移动到触摸屏112上的左边,当拖拽手势744是向右或向上手势时第三区域746在z层(前后)顺序中在第一区域734下面,并且当第一区域734移动离开触摸屏112移动到右边(或朝向顶部)时第三区域746被显露(例如,揭开)。
如图7K所示,在一些实施例中,在将第三区域746移动到右边之后,如参考图7G-7I所描述的,便携式多功能设备100在用户界面700中显示第三代表性图像726-1。在一些实施例中,对第三代表性图像726-1的显示根据下面参考图7J-7K描述的操作出现。
如图7J所示,在一些实施例中,便携式多功能设备100当移动第一区域734和第三区域746时检测拖拽手势744的终止(例如,抬离)。作为响应,便携式多功能设备100确定拖拽手势744是否满足前一序列导航准则。例如,在一些实施例中,当对第一区域734的移动使得第一区域734离开触摸屏112超过一半(例如,第一区域734的中点已经被移动离开触摸屏112)时,前一序列导航准则被满足。在一些实施例中,如图7J所示,当对第一区域734和第三区域746的移动使得在第一区域734与第三区域746之间的边界748通过触摸屏112的中点742(或者在不以触摸屏112内为中心的情况下的用户界面700的中点或者任何其他适当的预定义点)时,前一序列导航准则被满足。
如图7K所示,当前一序列导航准则被满足时,便携式多功能设备100(例如,通过将第一区域734进一步移动到右边直到第一区域734完全离开触摸屏112)将第一区域734完全移动离开触摸屏112并且(例如,通过将第三区域746进一步移动到右边直到第三区域746完全处于触摸屏112上)将第三区域746完全移动到触摸屏112上。结果,便携式多功能设备100显示第三代表性图像726-1(图7K)。因此,在一些实施例中,当前一序列导航准则被满足时拖拽手势744的终止给予用户将第三代表性图像726-1扣合到用户界面700上的印象。
相反,在一些实施例中,当前一序列导航准则未被满足时,便携式多功能设备100(例如,通过将第三区域746移动到左边直到第三区域746完全离开触摸屏112)将第三区域746完全移动离开触摸屏112并且(例如,通过将第一区域734移动回到左边直到第一区域734完全处于触摸屏112上)将第一区域734完全移动到触摸屏112上。结果,便携式多功能设备100再次显示第一代表性图像702-3(例如,返回到图7A中示出的视图)。因此,在一些实施例中,当前一序列导航准则未被满足时拖拽手势744的终止给予用户将第一代表性图像702-3扣合回到用户界面700上的印象。当便携式多功能设备100将第一区域734完全移动到触摸屏112上并且将第三区域738完全移动离开触摸屏112时,(例如,按时间顺序)向前显示第一图像序列702和第三图像序列726。
图7L-7P图示了其中响应于拖拽手势752第一区域734和第二区域738以不同速率在触摸屏112上移动的实施例。图7L与图7A类似并且被提供作为针对图7M-7P中示出的功能的起点。如图7M-7O所示,拖拽手势752从位置752-1(图7M)移动到位置752-2(图7N)移动到位置752-3(图7O)。在一些实施例中,对第一区域734的移动与对拖拽手势752的移动相对应。例如,当拖拽手势752移动1厘米(cm)时,第一区域734移动1cm。在一些实施例中,第二区域738基于拖拽手势752的移动来移动,但是第二区域738的移动的距离小于拖拽手势752的移动的距离。例如,当拖拽手势752移动1厘米(cm)时,第二区域738移动0.5cm。
在该示例中,第一区域734(例如,在z层中)在第二区域738上方,使得当第一区域734响应于拖拽手势752离开触摸屏112时,第二区域738逐渐被显露。在拖拽手势752的开始,第二区域738部分地但不是完全地处于触摸屏112上(例如,到触摸屏112的一半或四分之三)。当用户将第一区域734向右滑动离开触摸屏112时,第二区域738将剩余部分滑动到触摸屏112上,使得将第一区域734完全滑动离开触摸屏112对应于将第二区域738完全滑动到触摸屏112上。以与将第二738移动到触摸屏112上的速率不同的速率将第一区域734移动离开触摸屏112向用户提供关于用户在增强型照片的体系结构(例如,z层)中进行导航的方向的直观视觉线索。
在一些实施例中,在拖拽手势752期间,第一区域734中的图像和第二区域736中的图像以不同速率推进。在一些实施例中,第一区域734中的图像和第二区域738的图像推进的相应速率两者都基于拖拽手势752的移动。在一些实施例中,第一区域734中的图像以比第二区域738中的图像推进的速率更高的速率推进。在图7M-7P中,第一区域734中的图像响应于拖拽手势752以第二区域738中的图像的速率的两倍推进。例如,如图7N-7O所示,在相同时间段期间,第一区域734推进通过第一图像序列702中的两个图像(图7N的702-4和图7O的702-5),而第二区域738维持对第二图像序列中的单个图像的显示(图7N和7O的724-2)。图7P图示了第二区域738已经推进到显示代表性图像724-3。
图7Q-7CC图示了其中设备100将增强型照片滑动到显示器上的实施例。当增强型照片被滑动到显示器上时,设备100按时间顺序播放包括增强型照片的图像序列(例如,从初始图像到代表性图像)。在一些实施例中,将新的增强型照片滑动到显示器上取代如以上所描述的当前显示的增强型照片。例如,将增强型照片滑动到显示器上将当前显示的增强型照片滑动离开显示器。作为另一示例,将增强型照片滑动到显示器上掩盖(例如,在z方向上)当前显示的增强型照片。在一些实施例中,当前显示的增强型照片当其被取代时不回放(例如,设备维持对来自当前显示的增强型照片的代表性图像的显示)。在一些实施例中,增强型照片向前播放,无论其是(例如,在相机胶卷中的)下一增强型照片还是前一增强型照片。
为此,图7Q图示了设备100在触摸屏112上的可移动第一区域734中显示第一图像序列702的第一代表性图像702-3。
如图7Q所示,该设备检测触摸屏112上的包括由接触进行的向左移动的手势740(例如,轻扫手势)。如图7R所示,响应于手势740,设备100将第一区域734向左移动离开显示器并且将可移动第二区域738向左移动到显示器上(例如,第二区域738是与第一区域734相邻的可移动区域)。图7R中的箭头指示来自手势740的继续将第二区域738移动到显示器上的惯性。在该示例中,因为手势740到左边,滑动到显示器上的图像序列(例如,第二图像序列724)是(例如,在相机胶卷中的)下一图像序列。
如图7R-7T所示,根据序列显示准则被满足的确定,当将第二区域738移动到左边时,设备100向前播放通过由相机在采集第二代表性图像724-3之前采集的用于第二图像序列724的一个或多个图像中的至少一些图像。例如,设备100通过显示来自第二图像序列724的初始图像724-1(图7R)开始。设备100(例如,按时间顺序)从初始图像724-1回放到代表性图像724-3(图7S-7T)。在一些实施例中,对第二图像序列724的回放被定时使得代表性图像724-3刚好在可移动区域738完成移动到触摸屏112(图7T)上时出现。
在一些实施例中,序列显示准则包括导航准则(例如,指示设备100应当甚至在没有进一步用户输入的情况下完成转变到下一照片或前一照片的准则)。例如,设备100在用户已经足够快地轻弹和/或足够远地拖拽以转变到下一图像序列(例如,第二图像序列724)的情况下仅仅播放通过第二图像序列724。以上参考图7E更详细地描述导航准则。
在一些实施例中,当第一区域734滑动离开显示器时,当回放第二图像序列724的至少一部分时,设备100维持对第一代表性图像702-3的显示(例如,静态地,不替代对第一代表性图像702-3的显示)(例如,当第二图像序列724正在回放时,第一图像序列702不回放)。因此,代表性图像702-3被显示在图7Q-7S中的每个中的第一区域734中。
在一些实施例中,向右轻弹/拖拽手势得到类似的功能,除了(例如,在相机胶卷中的)前一增强型照片而非(例如,在相机胶卷中的)下一增强型照片被滑动到显示器上。例如,在图7U中,设备100检测与轻扫手势740类似的轻扫手势742,除了轻扫手势742在右边。在图7V-7X中,第四图像序列760(其在该示例中为相机胶卷中的前一增强型照片)从初始图像760-1向前播放到代表性图像760-3。即,在一些实施例中,无论轻扫/拖拽手势是前一照片导航手势或下一照片导航手势,设备100都向前播放增强型照片(例如,而非反向地播放在相机胶卷中的前一照片,如以上参考图7G-7K所描述的)。图7U-7X另外与图7Q-7T类似。
如图7Y-7CC所示,在一些实施例中,序列显示准则包括当设备100检测到手势的抬离时被满足的准则(例如,一旦用户已经将她的手指抬离触摸屏112,设备100仅仅开始播放新的增强型照片)。例如,在图7Y中,设备100检测拖拽手势764在位置764-1处的开始。在图7Z中,用户已经将拖拽手势764移动到位置764-2,并且设备100已经相应地将第四图像序列760的初始图像760-1部分地移动到显示器上。在图7AA中,用户已经将拖拽手势764进一步移动到位置764-3,并且设备已经相应地将第四图像序列760的初始图像760-1进一步移动到显示器上。然而,设备100不开始对第四图像序列760的回放直到用户抬离拖拽手势764(图7BB)。该准则避免当用户将增强型照片拖拽到显示器上和拖拽离开显示器时过度刺激用户。如图7CC所示,在一些实施例中,在手势的抬离之后对可移动区域的回放和/或移动被定时使得新的增强型照片的代表性图像(例如,第四代表性图像760-3)在回放期间刚好在新的增强型照片完成滑动到显示器上时被显示。
图8A-8L图示了根据一些实施例的对相关图像序列执行与个体图像相比较完全不同的操作的示例性用户界面。这些附图中的用户界面被用于说明下面描述的过程,包括图9A-9G、10A-10M、11A-11I、12A-12B、24A-24E、25A-25C、26A-26D和27A-27E中的过程。尽管将参考与触摸屏显示器(其中触敏表面和显示器被组合,如在便携式多功能设备100上示出的)上的输入给出下面的示例,但是在一些实施例中,所述设备检测如图4B中所示出的与显示器450分离的触敏表面451上的输入。
图8A-8L图示了如下示例:其中便携式多功能设备100存储多个图像序列,其中之一是(被显示在用户界面800上的)经分组的图像序列802。用户界面800的一些特征与用户界面600(图6A-6W)和用户界面700(图7A-7CC)类似,并且为简洁起见在这里不再重复。首先,图像序列802包括由相机拍摄的代表性图像802-3(图8A)、由相机在采集代表性图像802-3之后采集的一个或多个图像(例如,图8C的图像802-4和图8D的图像802-5)以及由相机在采集代表性图像802-3之前采集的一个或多个图像(例如,图8E的图像802-1和图8F的图像802-2)。因此,图像序列802的时间顺序(例如,由相机拍摄图像的顺序)为:图像802-1、图像802-2、图像802-3、图像802-4以及图像802-5。
图像序列802描绘了其中猫812走到视场中、使它的背滚在地上并且站起来并走开的场景。同时,鸟814停落在树枝上。当在现实中,这样的场景可能花费几秒来展现,但是在一些实施例中,图像序列802在短时间窗口中被捕获。例如,在一些实施例中,本文中描述的图像序列中的任何可以描绘围绕获得其相应代表性图像时的时刻(例如,在0.5秒、1.0秒、1.5秒、2.0秒或2.5秒内)的片刻。例如,用户的兴趣可能当猫812开始在草地中打滚时已经被挑动,提醒用户拍摄代表性图像802-3。在一些实施例中,图像序列802包括刚好在获得代表性图像802-3之前的图像和刚好在在获得代表性图像802-3之后的图像,使得第一图像序列802包括增强型照片,该片刻通过增强型照片当用户执行(如本文中描述的)关于代表性图像602-3的某些操作时可以“活灵活现”。
在图8A-8L中示出的示例中,便携式多功能设备100还存储与多个经分组的图像序列中的图像完全不同的多个图像。例如,便携式多功能设备100存储图像824(图8I),其不是多个图像序列中的图像序列的部分(例如,图像824是静止图像)。
在一些实施例中,用户界面800是图像管理应用中的用户界面(例如,来自加利福尼亚库比蒂诺的苹果公司的”照片”)。为此,在一些实施例中,拍摄图像序列802的相机是便携式多功能设备100的部分(例如,相机包括图1A的光学传感器164连同成像模块143)。在一些实施例中,图像序列802由不为便携式多功能设备100的相机拍摄(例如,图像序列802在利用另一设备上的相机被拍摄之后被传输到便携式多功能设备100)。在一些实施例中,图像序列802响应于检测到在第一时间处对快门按钮的激活而获得,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。在一些实施例中,代表性图像802-3与由相机采集的代表性图像相对应,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。
在一些实施例中,静止图像和/或多个图像序列中的一些是使用便携式多功能设备100采集的,并且一些是在利用不同设备上的相机被拍摄之后被传输到便携式多功能设备100的。例如,在一些情况下,用户可以如关于方法900/2600所描述的获得(例如,拍摄、捕获)多个设备(例如,平板计算机、笔记本计算机和/或数字相机,除了便携式多功能设备100之外的所有设备)上的图像序列并且将图像序列同步或另外传输到便携式多功能设备100(其存储额外的静止图像)上。
在一些实施例中,用户界面800是消息收发应用中的用户界面(例如,来自加利福尼亚库比蒂诺的苹果公司的”消息”)。在一些实施例中,图像序列802和/或静止图像824是显示在消息收发应用的可滚动区域中的消息对话,并且图像序列802随着消息收发应用的可滚动区域被滚动而被显示。在一些情况下,用户可能已经在她自己的便携式多功能设备100上获得(例如,拍摄、捕获)相应图像序列,并且也已经(例如,在消息收发应用中)接收到来自不同用户的不同图像序列或不同静止图像。因此,在一些实施例中,存储在便携式多功能设备100上的多个图像序列包括使用便携式多功能设备100获得的至少一个图像序列和使用与便携式多功能设备100完全不同的不同设备上的相机获得的至少一个图像序列或静止图像。
如图8A-8L所示,便携式多功能设备100检测两个类似的输入:第一输入816(图8B-8F)和第二输入836(图8K-8L)。第一输入816和第二输入836是类似的,因为它们共享共同的特征集(例如,满足共同的预定义准则集),特征例如强度特征(如强度示意图818中示出的)和路径特征(例如,第一输入816和第二输入836两者都是按下并保持手势)。第一输入816和第二输入836是相同的,除了第一输入816是在为图像序列的部分的图像(例如,代表性图像802-3)上被检测到,而第二输入836是在不为图像序列的部分的图像(例如,静止图像824)上被检测到。
结果,便携式多功能设备100当显示代表性图像802-3时检测到第一输入816时执行第一操作,并且当显示静止图像824时检测到第二输入836时执行不同的第二操作。在图8B-8F中示出的示例中,第一操作包括以参考图6A-6FF和方法1000/10000/10050描述的方式显示图像序列802的至少一部分。即:在第一输入816的第一部分816-1期间,便携式多功能设备100回放由相机在获得图像802-3之后获得的图像(例如,显示图8C的图像802-4,并且显示图8D的图像802-5);在第一输入816的第二部分816-2期间,便携式多功能设备100回放由相机在获得图像802-3之前获得的图像(例如,显示图8E的图像802-1,并且显示图8F的图像802-2)。在图8K-8L中示出的示例中,第二操作包括显示示出静止图像824的不同部分的动画。例如,如图8L所示,第二操作包括在静止图像824的部分(例如,在第二输入836下面或靠近第二输入836的部分)上进行放大的动画。除了或代替放大,在一些实施例中,第二操作包括显示关于静止图像824的信息(例如,元数据822)。
图8G-8I图示了导航手势844(例如,拖拽手势)。导航手势是在位置844-1处开始、移动到位置844-2、移动到位置844-3的向左手势。因此,在一些实施例中,便携式多功能设备100从(例如,通过显示如参考图7A-7CC所描述的序列)显示图像序列802转变到显示静止图像824(例如,图像824跨触摸屏112滑动,而不动画演示通过图像序列,因为其是静止照片而非增强型照片)。在一些实施例中,当在静止图像上检测到与导航手势844类似的输入时,便携式多功能设备100转变到不同图像,而不显示通过与静止图像相关联的图像(例如,因为没有)。
图9A-9G图示了根据一些实施例的捕获经分组的相关图像序列的方法900的流程图。在具有显示器和相机的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行方法900。根据一些实施例,该设备包括用于检测与触敏表面的接触的强度的一个或多个传感器。在一些实施例中,显示器是触摸屏显示器并且触敏表面是在显示器上或与显示器集成。在一些实施例中,显示器与触敏表面分离。方法900中的一些操作可选地被组合和/或一些操作的顺序被可选地改变。
当处于用于相机的第一媒体采集模式中时,该设备在显示器上显示(902)(例如,如图5A所示)实时预览(例如,该设备与从相机获得图像实时地或接近实时地显示图像)。例如,第一媒体采集模式是被标记为增强型照片模式、片刻模式、等等的模式。
在一些实施例中,第一媒体采集模式被配置为(904)由该设备的用户(例如,经由用于相机的设置界面)启用或禁用。在一些实施例中,该设备包括至少三种媒体采集模式:(1)第一媒体采集模式(其可以被认为是“增强型照片静止图像”采集模式),其响应于检测到对快门按钮的激活而将图像序列分组,其中图像序列包括在对快门按钮的激活之前和在对快门按钮的激活之后采集的图像并且将它们存储作为图像组;(2)第二媒体采集模式(例如,传统静止图像采集模式),其响应于检测到对快门按钮的激活而存储单个图像,类似于传统数字相机中的静止图像模式;以及(3)第三媒体采集模式(例如,视频采集模式),其存储在检测到对快门按钮的激活之后采集的视频,并且其保持记录视频直到快门按钮被再次激活。在一些实施例中,用户可以选择经由用于相机、模式选择按钮、模式选择指针、等等的设置界面启用哪种媒体采集模式。
在一些实施例中,实时预览被显示(906)为包括用于启用第一媒体采集模式的可供件的媒体捕获用户界面的部分(例如,图5A-5H的可供件506)。当第一媒体采集模式被启用时,可供件被动画演示(例如,以指示当媒体捕获用户界面被显示时图像和/或音频数据被捕获),并且当第一媒体采集模式被禁用时,可供件不被动画演示。在一些实施例中,响应于检测到对可供件的选择(例如,可供件上的轻叩手势),当第一媒体采集模式被禁用时,该设备启用第一媒体采集模式、开始捕获媒体(例如,图像和/或音频)并且开始动画演示可供件。在一些实施例中,捕获媒体包括记录图像和/或音频。在一些实施例中,捕获媒体包括(例如,在永久存储器中)存储图像和/或音频。
当显示实时预览时,该设备检测(908)在第一时间处对快门按钮的激活(例如,该设备检测在第一时间处在物理按钮的按下或者检测在第一时间处对触敏显示器上的虚拟快门按钮上的手势,例如(如图5F所示的)在快门释放图标上的轻叩手势或者在实时预览上的轻叩手势,其中实时预览用作虚拟快门按钮)。在一些实施例中,检测到的激活是对快门按钮的单次激活(例如,类似于在传统数字相机中用于以传统数字相机的静止图像模式捕获单个图像的单次激活)。
响应于检测到在第一时间处对快门按钮的激活,该设备将由相机在与在第一时间处对快门按钮的激活接近的时间上采集的多个图像分组(910)到第一图像序列(例如,如图5I-5K所示)中。第一图像序列包括:由相机在检测到在第一时间处对快门按钮的激活之前采集的多个图像;代表性图像,该代表性图像代表第一图像序列并且由相机在第一图像序列中的其他图像中的一个或多个之后采集;以及由相机在采集代表性图像之后采集的多个图像。
在一些实施例中,代表性图像由相机在第一时间处采集并且类似于当传统数字相机的快门按钮被激活时以其静止图像模式捕获的单个图像。在一些实施例中,由相机采集的代表性图像与在第一时间处采集的图像相对应。在一些实施例中,由相机采集的代表性图像与在检测到在第一时间处对快门按钮的激活之后不久在考虑了快门迟滞(在检测到对快门按钮的激活与捕获/存储代表性图像之间的时间延迟)的时间处采集的图像相对应。在一些实施例中,由相机采集的代表性图像被用于表示例如图像呈现模式中的图像序列。
在一些实施例中,第一图像序列包括在采集代表性图像之后采集的预定义数量的图像,例如5个、10个、15个、20个、25个或30个图像。在一些实施例中,在采集代表性图像之后采集的图像是在采集代表性图像之后的预定义时间内(例如,在采集代表性图像之后的0.5秒、1.0秒、1.5秒、2.0秒或2.5秒内)的图像。在一些实施例中,第一图像序列包括在检测到在第一时间处对快门按钮的激活之后采集的预定义数量的图像,例如5个、10个、15个、20个、25个或30个图像。在一些实施例中,在检测到在第一时间处对快门按钮的激活之后采集的图像是在第一时间之后的预定义时间内(例如,在第一时间之后的0.5秒、1.0秒、1.5秒、2.0秒或2.5秒内)的图像。在一些实施例中,第一图像序列中的在采集代表性图像之后采集的多个图像满足预定义分组准则。在一些实施例中,预定义分组准则包括选择在代表性图像之后的预定义数量的图像。在一些实施例中,预定义分组准则包括选择在紧接在检测到对快门按钮的激活之后的预定义时间范围中的图像。在一些实施例中,预定义分组准则包括选择在采集代表性图像的时间之后的预定义时间范围中的图像。
在一些实施例中,第一图像序列在存储器中被存储(912)为第一独特图像集(例如,一起被存储在非易失性存储器中的数据结构中)。在一些实施例中,由相机采集的代表性图像被用于表示例如图像呈现模式中的第一独特图像集(参加图6A-6FF、7A-7CC和8A-8L)。
在一些实施例中,实时预览以第一分辨率显示(914)图像,并且第一图像序列包括被显示在实时预览中的第一分辨率的图像(例如,第一分辨率是比相机的分辨率的上限更低的分辨率)。在一些实施例中,由相机采集的代表性图像具有(916)比第一分辨率更高的第二分辨率。在一些实施例中,由相机采集的代表性图像具有比第一图像序列中的其他图像更高的分辨率。例如,由相机采集的代表性图像是12兆像素图像、18兆像素图像或24兆像素图像,并且第一图像序列中的其他图像具有与在实时预览中显示的分辨率(例如,第一分辨率)相对应的更低分辨率。在一些实施例中,由相机采集的代表性图像具有与第一图像序列中的其他图像相同的分辨率。
在一些实施例中,针对响应于检测到对快门按钮的相应激活而被分组的相应图像序列的参数能由该设备的用户配置(918)。例如,经由用于相机的设置界面,用户可以选择相应序列中的图像的数量、哪个图像用作该序列的代表性图像(例如,如图5I-5K所示)、和/或用于图像序列的其他采集或显示参数(例如,相应图像的分辨率、其他图像的分辨率、帧率、滤镜效果、等等)。
在一些实施例中,由相机在检测到在第一时间处对快门按钮的激活之前采集的多个图像在检测到在第一时间处对快门按钮的激活之前以第一形式被存储(920)在存储器(例如,程序存储器、易失性存储器、环形缓冲、等等)中,并且响应于检测到在第一时间处对快门按钮的激活而以第二形式被存储在存储器(例如,非易失性存储器/存储装置)中。
在一些实施例中,在检测到在第一时间处对快门按钮的激活之前采集的多个图像是(922)预定义数量的图像(例如,5个、10个、15个、20个、25个或30个图像)。
在一些实施例中,在检测到在第一时间处对快门按钮的激活之前采集的多个图像是(924)在第一时间之前的预定义时间内(例如,在第一时间之前的0.5秒、1.0秒、1.5秒、2.0秒或2.5秒内)的图像。
在一些实施例中,在检测到在第一时间处对快门按钮的激活之前采集的多个图像是(926)在采集到代表性图像的时间之前的预定义时间内(例如,在采集代表性图像的时间之前的0.5秒、1.0秒、1.5秒、2.0秒或2.5秒内)的图像。
在一些实施例中,在检测到在第一时间处对快门按钮的激活之前采集的多个图像来自(928)第一时间与在第一时间之前的第二时间之间的时间范围,并且在检测到在第一时间处对快门按钮的激活之前采集多个图像独立于(除了检测到在第一时间处对快门按钮的激活之外的)检测到在时间上接近第二时间的与快门按钮的交互。例如,在检测到在第一时间处对快门按钮的激活之前采集的多个图像不是响应于(除了检测在第一时间处对快门按钮的交互之外)检测到在时间上接近第二时间的与快门按钮的交互而采集的。例如,在检测到在第一时间处对快门按钮的激活之前采集的多个图像不是响应于检测到在第二时间处或接近第二时间对部分(或完全)激活而采集的。
在一些实施例中,第一图像序列中的在检测到在第一时间处对快门按钮的激活之前采集的多个图像满足(930)一个或多个预定义分组准则。在一些实施例中,预定义分组准则包括选择(932)在检测到对快门按钮的激活之前的预定义数量的图像。在一些实施例中,预定义分组准则包括选择(934)在代表性图像之前的预定义数量的图像。在一些实施例中,预定义分组准则包括选择(936)在紧接在检测到对快门按钮的激活之前的预定义时间范围中的图像。在一些实施例中,预定义分组准则包括选择(938)在紧接在采集代表性图像的时间之前的预定义时间范围中的图像。
在一些实施例中,实时预览被显示(940)为包括用于启用第一媒体采集模式的可供件的媒体捕获用户界面的部分,并且快门按钮是显示在媒体捕获用户界面中的软件按钮(例如,图5A-5H的快门按钮514)。响应于检测到对快门按钮的激活(例如,图5F的轻叩手势518),该设备显示(942)与快门按钮相关联的动画(例如,快门按钮的一部分分裂开并飞回到一起的动画,如图5F-5H所示),该动画持续与在对快门按钮的激活之后相机采集用于第一图像序列的图像的时间量相对应的时间量(例如,从而向用户提供媒体仍然被捕获的指示)。在一些实施例中,该动画是循环动画,循环动画可以在相机完成采集用于第一图像序列的图像之前快门按钮被保持按下或被再次激活的情况下被无缝延伸。
在一些实施例中,该设备在进入第一媒体采集模式后开始(944)(独立于检测对快门按钮的激活)采集并存储图像。该设备删除(946)(或标记以进行删除)当处于第一媒体采集模式中时未被分组到在时间上接近在相应时间处对快门按钮的激活的相应多个图像中的图像。
在一些实施例中,该设备在显示实时预览后开始(948)(独立于检测对快门按钮的激活)采集并存储图像。该设备删除(950)当处于第一媒体采集模式中时未被分组到在时间上接近在相应时间处对快门按钮的激活的相应多个图像中的图像(或将其标记以进行删除)。
在一些实施例中,该设备当显示实时预览时独立于检测对快门按钮的激活采集(952)并存储图像。该设备删除(954)当处于第一媒体采集模式中时未被分组到在时间上接近在相应时间处对快门按钮的激活的相应多个图像中的所采集并存储的图像(或将其标记以进行删除)。
在一些实施例中,用户可以选择在图像未被分组到图像序列中的情况下丢弃该图像之前该图像被保留的时间长度。例如,用户可以将该设备设置为保留显示在实时预览模式中的图像5秒、10秒或20秒。例如,假设用户选择时间长度5秒,则显示在实时预览中的图像在其未通过对快门按钮的激活被分组到图像序列中的情况下在其被显示在实时预览中之后被保留5秒并且之后被丢弃(例如,被删除或被标记以进行删除)。
在一些实施例中,响应于检测到在第一时间处对快门按钮的激活,该设备将与第一图像序列相对应的音频(例如,包括在检测到对快门按钮的激活之前记录的音频和在检测到对快门按钮的激活之后记录的音频)与第一图像序列相关联(956)。在一些实施例中,该设备包括麦克风(或者与麦克风通信),并且当图像序列被采集时检测到的音频被存储在存储器中并且被链接到所存储的第一图像序列(或者另外与其相关联)。例如,图6E-6I图示了对具有对应音频的图像序列的回放。
在一些实施例中,响应于检测到在第一时间处对快门按钮的激活,该设备将与第一图像序列相对应的元数据(例如,6J-6M图示了对具有对应元数据的图像序列的回放)与第一图像序列相关联(958)。在一些实施例中,用于图像序列的元数据被存储在存储器中并且被链接到所存储的图像序列(或者另外与其相关联),元数据例如时间、日期、位置(例如,经由GPS)、天气、当图像序列被采集时播放的音乐(例如,利用该设备中的诸如Shazam、SoundHound或Midomi的音乐识别软件识别的音乐)、本地事件信息(例如当第一图像序列被采集时并且在第一图像序列被采集的地方播放的体育比赛)、事件后信息(例如最终分数)、等等。
在一些实施例中,该设备自动地将模糊图像从第一图像序列排除(960)(或删除或放弃显示作为该序列的部分)。
在一些实施例中,在检测到在第一时间处对快门按钮的激活之后,该设备检测(962)在第二时间处对快门按钮的下一激活(而不检测在第一时间与第二时间之间对快门按钮的任何激活)。响应于检测到在第二时间处对快门按钮的下一激活,该设备将由相机在与在第二时间处对快门按钮的激活接近的时间上采集的多个图像分组(964)到第二图像序列中。第二图像序列包括:由相机在检测到在第二时间处对快门按钮的激活之前采集的多个图像;以及表示第二图像序列并且由相机在第二图像序列中的其他图像中的一个或多个之后采集的代表性图像。在一些实施例中,捕获图像序列以利用传统数字相机捕获单个图像类似的方式进行,这使其对于甚至新手用户捕获这样的图像序列是简单且直观的。对于传统数字相机,每次快门按钮被激活时,单个图像被捕获。此处,每次快门按钮被激活时,图像序列被捕获。捕获图像序列的这种方式与利用传统数字相机捕获视频的方式不同。对于利用传统数字相机捕获视频,对快门按钮的第一次激活开始记录视频,并且对快门按钮的下一次激活停止记录视频。
在一些实施例中,序列中的第一帧和/或最后一帧根据代表性图像的改变而改变(例如,如图5I-5K所示)。为此,在一些实施例中,第一图像序列包括(966)第一图像序列中的初始图像、在初始图像与代表性图像之间采集的第一数量的图像以及在代表性图像与最终图像之间采集的第二数量的图像。该设备检测(968)与用以改变第一图像序列中的代表性图像的请求相对应的输入。在一些实施例中,当处于图像序列编辑模式中时,该设备检测使得代表性图像选择指示符从当前代表性图像移动到第一图像序列中的另一图像的手势(例如,触摸手势522)(例如,拖拽手势或轻叩手势)。在一些实施例中,当处于图像序列编辑模式中时,该设备检测使得当前代表性图像从代表性图像选择区域移出并且使得第一图像序列中的另一图像移动到代表性图像选择区域的手势(例如,拖拽手势或轻叩手势)。响应于检测到与用以改变第一图像序列中的代表性图像的请求相对应的输入:该设备根据检测到的输入来将代表性图像改变(970)为经修正的代表性图像;并且通过根据检测到的输入在第一图像序列的一端处添加图像并且在第一图像序列的另一端处删除图像来改变第一图像序列中的经分组的多个图像,使得第一图像序列具有经修正的初始图像和经修正的最终图像。
在一些实施例中在初始图像与代表性图像之间的图像的数量与在经修正的初始图像与经修正的代表性图像之间的图像的数量相同。在一些实施例中在代表性图像与最终图像之间的图像的数量与在经修正的代表性图像与最终图像之间的图像的数量相同。在一些实施例中,所添加的图像在时间上接近第一图像序列的一端。例如,如果经修正的代表性图像是第一图像序列中的头三个图像,则(紧跟着在初始图像之前采集的)三个图像被添加到第一序列的开始(其中三个图像中的最靠前的图像变成经修正的初始图像),并且三个图像从第一序列的结束中被删除。
在一些实施例中,显示器是(972)触敏显示器。该设备接收(974)用以显示来自第一图像序列的代表性图像的请求。响应于接收到用以显示代表性图像的请求,该设备在触敏显示器上显示(976)代表性图像。当显示代表性图像时,该设备在触敏显示器上接收(978)在代表性图像上的触摸输入,该触摸输入包括随时间改变的特征。例如,触摸输入的强度随时间改变,或者触摸输入的接触的位置随时间改变(例如,由于跨触敏显示器的接触的横向移动)。响应于在触敏显示器上接收到在代表性图像上的触摸输入,该设备以基于(例如,如关于图6A-6FF的按下并保持手势或图7A-7CC的导航拖拽手势)所描述的)触摸输入的特征在时间上的改变确定的速率(例如,顺序地)来显示(980)第一图像序列中的图像。
应当理解,图9A-9G中的操作已经被描述的特定顺序仅仅是示例性的并且不旨在指示所描述的顺序是操作能够被执行的唯一顺序。本领域普通技术人员将意识到用于对本文中描述的操作进行重新排序的各种方式。额外地,应当指出,本文中关于本文中描述的其他方法(例如,方法1000、10000、10050、1100、11000、1200、2400、2500、2600和2700)描述的其他过程的细节也可以类似的方式适用于以上参考图9A-9G描述的方法900。例如,以上关于方法900描述的接触、手势、用户界面对象、强度阈值、动画和图像序列可选地具有本文中关于本文中描述的其他方法(例如,方法1000、10000、10050、1100、11000、1200、2400、2500、2600和2700)描述的接触、手势、用户界面对象、强度阈值、动画和图像序列的特征中的一个或多个。为简便起见,这里不再重复这些细节。另外,应当指出,附录A中描述的其他过程的细节也可以类似的方式适用于以上参考图9A-9G描述的方法900。例如,以上关于方法900描述的采集操作、分组操作和存储操作可选地具有附录A中描述的针对增强型照片的捕获操作、剪辑操作、存储操作或检索操作的特征中的一个或多个。
图10A-10E图示了根据一些实施例的显示(重放)相关图像序列的方法1000的流程图。在具有显示器和触敏表面的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行方法1000。根据一些实施例,该设备包括用于检测与触敏表面的接触的强度的一个或多个传感器。在一些实施例中,所述显示器是触摸屏显示器并且所述触敏表面是在所述显示器上或与所述显示器集成。在一些实施例中,所述显示器与所述触敏表面分离。方法1000中的一些操作可选地被组合和/或一些操作的顺序被可选地改变。
该设备在显示器上显示(1002)代表性图像(例如,当该设备处于图像呈现模式中时,参见图6A)。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列还包括由相机在采集代表性图像之前采集的一个或多个图像。在一些实施例中,拍摄图像序列的相机是电子设备的部分。在一些实施例中,图像序列由不为电子设备的部分的相机拍摄(例如,图像序列在利用另一设备上的相机被拍摄之后被传输到电子设备)。在一些实施例中,图像序列响应于检测到在第一时间处对快门按钮的激活而获得,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。在一些实施例中,代表性图像与由相机采集的代表性图像相对应,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。
当在显示器上显示代表性图像时,该设备检测(1004)第一输入的第一部分(例如,触敏表面上的输入,参加图6B-6D的第一输入616的第一部分616-1)。在一些实施例中,第一输入是(1006)按下并保持手势(例如,当游标或其他焦点选择器在显示器上的代表性图像上时,触敏显示器上的代表性图像上的按下并保持手势,或者触控板上的按下并保持手势)。在一些实施例中,第一输入是当游标或其他焦点选择器在显示器上的代表性图像上时利用鼠标的点击并保持输入。在一些实施例中,该设备包括(1008)用于检测与触敏表面的接触的强度的一个或多个传感器,并且第一输入包括满足第一接触强度准则的手指接触(例如,当游标或其他焦点选择器在显示器上的代表性图像上时,触敏显示器上的代表性图像上的手指手势,或者触控板上的手指手势,其中手指手势中的接触超过针对输入的至少部分的轻压(或深压)强度阈值)。例如,如图6B-6D所示,第一输入616是超过轻压阈值ITL的按下并保持手势。
响应于检测到第一输入的第一部分,该设备利用对由相机在采集代表性图像之后采集的一个或多个图像的顺序显示来替代(1010)对代表性图像的显示(例如,如图6B-6D所示)。因此,在一些实施例中,响应于检测到第一输入的第一部分,由相机在采集代表性图像之后采集的一个或多个图像被顺序显示。在一些实施例中,响应于检测到第一输入的第一部分,以基于该输入的第一部分中的接触的强度的速率(例如,显示的速率随着第一输入的第一部分中的接触的强度增大而增大,并且显示的速率随着第一输入的第一部分中的接触的强度减小而减小)来顺序显示(1012)由相机在采集代表性图像之后采集的一个或多个图像。在一些实施例中,(响应于检测到第一输入的第一部分)图像从代表性图像到最终图像被顺序显示的速率根据第一输入的第一部分中的接触的强度改变。在一些实施例中,在显示速率对第一输入中的接触强度的该初始依赖性之后,(响应于检测到如图6E-6M所示出的第一输入的稍后部分)独立于第一输入的稍后部分中的接触强度,以固定显示速率进行对图像序列的后续显示。在一些实施例中,响应于检测到第一输入的第一部分,以固定速率顺序显示由相机在采集代表性图像之后采集的一个或多个图像。在一些实施例中,通过图像序列的进度的位置基于接触的强度(例如,接触的特定强度被映射到通过图像序列的进度的对应量,如图6P-6V和图6W所示)。在一些实施例中,在强度与动画进展之间的该映射应用如下:当接触强度的强度在ITL与ITD之间时并且当接触的强度高于ITD时,在图像序列之间的动画以预定义速率(例如,1x实时)或以基于接触的强度确定的速率(例如,针对具有较高强度的接触较快,并且针对具有较低强度的接触较慢)前进。在一些实施例中,利用对由相机在采集代表性图像之后采集的一个或多个图像的顺序显示来替代对代表性图像的显示包括显示基于第一接触的强度在时间上的改变而动态显示图像序列中的图像的动画。
在一些实施例中,利用对由相机在采集代表性图像之后采集的一个或多个图像的顺序显示来替代对代表性图像的显示包括一秒更新(例如,替代)所显示的图像多次(例如,每秒10次、20次、30次或60次),可选地无论第一输入的第一部分是否满足一个或多个预定强度准则。在一些实施例中,动画是随着第一输入的第一部分的强度改变而被更新的流畅动画,从而向用户提供关于由设备检测到的强度的量的反馈(例如,关于由用户施加的力的量的反馈)。在一些实施例中,动画被平滑地且快速地更新从而为用户创建用户界面对施加到触敏表面的力的改变实时做出响应的表现(例如,动画在感知上对于用户而言是即时的,从而向用户提供即时反馈并且使得用户能够更好地调制他们施加到触敏表面的力以与对具有不同的或改变的强度的接触做出响应的用户界面对象有效地交互。
在一些实施例中,示出图像序列被替代的动画以对第一接触的强度的小的改变做出动态响应的方式被顺序显示(例如,如图6W所示)。
在一些实施例中,在检测到第一输入的第一部分之后,该设备检测(1014)第一输入的第二部分(例如,继续检测手指手势中的足够的接触和/或强度)。在一些实施例中,第二部分是具有与第一输入的第一部分相同的特征的第一输入的延续(例如,在第一输入的第一部分与第二部分之间不存在时间相关的改变)。在一些实施例中,除非由用户中断或中止,第一输入的第一部分持续与执行操作1010花费的时间一样长的时间,并且在那之后的是第一输入的第二部分或更靠后的部分。
在一些实施例中,响应于检测到第一输入的第二部分,该设备顺序显示(1016)由相机在采集代表性图像之前采集的一个或多个图像、代表性图像以及由相机在采集代表性图像之后采集的一个或多个图像(例如,如图6E-6I所示)。因此,在一些实施例中,响应于检测到第一输入的第二部分,从整个图像序列的初始图像到最终图像显示该序列。
在一些实施例中,代替通过利用对由相机在采集代表性图像之后采集的一个或多个图像的顺序显示来替代对代表性图像的显示来对检测到第一输入的第一部分做出响应,该设备通过利用对序列的初始图像跟随序列的剩余部分的顺序显示来替代对代表性图像的显示来对检测到第一输入的第一部分做出响应。
在一些实施例中,响应于检测到第一输入的第二部分,以固定速率顺序显示(1018)图像序列。在一些实施例中,独立于(例如,在第一输入的第二部分期间)第一输入中的接触的强度,以固定速率顺序显示图像序列中的图像。例如,在第一输入的第二部分期间以1x视频回放速率(例如,图像被获得的速率)顺序显示图像序列。在一些实施例中,在第一输入的第二部分期间图像序列中的图像被顺序显示的速率取决于第一输入中的接触的强度。例如,速率随着接触的强度增大而增大。在一些实施例中,响应于检测到第一输入的第二部分,以基于该输入的第一部分中的接触的强度的速率来顺序显示图像序列。
在一些实施例中,该设备从顺序显示由相机在采集相应代表性图像之后采集的一个或多个图像交叉淡变(1020)到顺序显示由相机在采集代表性图像之前采集的一个或多个图像。在一些实施例中,当图像序列被循环或再次显示时,从(例如,如图6D所示的)图像序列的结束到(例如,如图6E所示的)图像序列的开始显示交叉淡变动画。
在一些实施例中,响应于检测到第一输入的第二部分,该设备呈现(1022)与图像序列相对应的音频。在一些实施例中,响应于检测到第一输入的第二部分,一起显示整个图像序列以及当采集图像序列时记录的对应音频。在一些实施例中,响应于检测到第一输入的第一部分不呈现音频。在一些实施例中,在对图像序列的第一完整回放期间(例如,响应于检测到第一输入的第二部分)呈现音频。在一些实施例中,如果在对图像序列的第一完整回放之后(例如,响应于检测到第一输入的第二部分)维持第一输入,在对该序列的后续回放期间不再次响应于继续检测到第一输入而呈现音频。在一些实施例中,针对给定输入,在对图像序列的第一完整回放期间仅仅呈现音频。在一些实施例中,针对给定输入,在对图像序列的第二完整回放期间仅仅呈现音频。
在一些实施例中,在检测到第一输入的第二部分之后,该设备检测(1014)第一输入的第三部分(例如,继续检测手指手势中的足够的接触和/或强度,如图6J-6M所示)。在一些实施例中,第一输入的第三部分是在没有第一输入的特征的改变的情况下第一输入的第二部分的延续。响应于检测到第一输入的第三部分,该设备顺序显示(1026)由相机在采集代表性图像之前采集的一个或多个图像、代表性图像以及由相机在采集代表性图像之后采集的一个或多个图像(例如,该设备再次循环回并显示序列)。在一些实施例中,如果第一输入中的压力和/或接触被维持,则图像序列被再次显示。在一些实施例中,只要第一输入被维持,循环和回放就继续。
在一些实施例中,响应于检测到第一输入的第三部分,该设备显示(1028)与图像序列相对应的元数据。在一些实施例中,如果第一输入中的压力和/或接触被维持,则利用对用于图像序列的元数据的并发显示再次显示图像序列,元数据被存储在存储器中并且被链接到所存储的图像序列(或者另外与其相关联),元数据例如时间、日期、位置(例如,经由GPS)、天气、当图像序列被采集时播放的音乐(例如,利用该设备中的诸如Shazam、SoundHound或Midomi的音乐识别软件识别的音乐)、本地事件信息(例如当第一图像序列被采集时并且在第一图像序列被采集的地方播放的体育比赛)和/或事件后信息(例如最终分数)。例如,图6J-6M图示了对与图像序列中的图像相对应的位置和时间信息的并发显示。
在一些实施例中,该设备检测(1030)第一输入的终止(例如,检测第一输入中的接触的抬离或检测第一输入中的接触的强度下降到预定阈值强度值(例如ITL)以下,如图6N所示)。响应于检测到第一输入的终止,该设备显示(1032)代表性图像(例如,该设备显示以对图像序列中的仅仅代表性图像的显示结束的动画)。
在一些实施例中,当显示图像序列中的第一图像(例如,图6N的图像602-4)时,该设备检测(1034)第一输入的终止(例如,检测第一输入中的接触的抬离或检测第一输入中的接触的强度下降到预定阈值强度值(例如ITL)以下,如图6N所示)。响应于(1036)当显示图像序列中的第一图像时检测到第一输入的终止:根据第一图像出现在图像序列中的代表性图像之前(例如,第一图像在代表性图像之前被拍摄)的确定,该设备按时间顺序来顺序显示从第一图像到代表性图像的图像(例如,该设备向前显示图像序列直到其到达代表性图像)。根据第一图像出现在图像序列中的代表性图像之后(例如,第一图像在代表性图像之后被拍摄)的确定,该设备按反向时间顺序来顺序显示从第一图像到代表性图像的图像(例如,该设备向后显示图像序列直到其到达代表性图像)。在一些实施例中,按时间顺序来顺序显示从第一图像到代表性图像的图像包括逐渐地放慢图像被显示的速率,使得对图像序列的回放缓慢地停止到代表性图像处的停止点。在一些实施例中,按反向时间顺序来顺序显示从第一图像到代表性图像的图像包括逐渐地放慢图像被显示的速率,使得对图像序列的反向回放缓慢地停止到代表性图像处的停止点。
在一些实施例中,图像序列被配置为(1038)在前向方向或反向方向上以循环方式被顺序显示。当显示图像序列中的第一图像时,该设备检测(1040)第一输入的终止(例如,该设备检测第一输入中的接触的抬离或检测第一输入中的接触的强度下降到预定阈值强度值(例如ITL)以下,如图6N所示)。响应于(1042)当显示图像序列中的第一图像时检测到第一输入的终止:根据当循环在前向方向上被遍历时在第一图像与代表性图像之间存在较少图像的确定,该设备在前向方向上顺序显示从第一图像到代表性图像的图像,并且根据当循环在反向方向上被遍历时在第一图像与代表性图像之间存在较少图像的确定,该设备在反向方向上顺序显示从第一图像到代表性图像的图像。
在一些实施例中,根据由第一输入施加的相应强度水平顺序显示(1044)由相机在采集代表性图像之后采集的一个或多个图像。例如,如图6P-6V和6W所示,相应图像被映射到相应强度,并且用户可以通过改变由第一输入施加的强度(例如,提供与强度范围618-4相对应的强度的触摸输入发起对图6R中图示的用户界面进行显示,并且随后增大触摸输入的强度使得强度与强度范围618-5相对应发起利用图6S中图示的用户界面来替代对图6R中图示的用户界面的显示)来向前和向后刷动通过在代表性图像之后获得的一个或多个图像。
在一些实施例中,第一输入的第一部分包括(1046)在触敏表面上检测到的接触的强度的改变(例如,如图6P-6V所示)。当代表性图像被显示并且接触具有第一强度时,该设备检测接触的强度通过相应量到第二强度的增加。响应于检测到接触的强度通过相应量的增加,该设备利用对第一后续图像的显示来替代对代表性图像的显示,第一后续图像为在图像序列中的代表性图像之后的相应数量的图像。例如,在图6Q-6R中,接触的强度636从强度范围618-3中的强度增大到强度范围618-4内的强度,并且利用对图像602-4的显示来替代对图像602-3的显示。当显示第一后续图像并且接触具有第二强度时,该设备检测接触的强度通过相应量到第三强度的增加。响应于检测到接触的强度通过相应量从第二强度到第三强度的增加,该设备利用对第二后续图像的显示来替代对第一后续图像的显示,第二后续图像为在图像序列中的第一后续图像之后的相应数量的图像。例如,在图6R-6S中,接触的强度636从强度范围618-4内的强度增大到范围618-5内的强度,并且利用对图像602-5的显示来替代对图像602-4的显示。
在一些实施例中,图像的相应数量基于(1048)接触的强度的改变的幅度。例如,在图6Q-6S中,当接触636的强度从强度范围618-3内的强度增大到强度范围618-4内的强度时,图像的相应数量为一,并且当接触636的强度从强度范围618-3内的强度增大到强度范围618-5内的强度时,图像的相应数量为二。
在一些实施例中,当接触的强度的改变具有第一幅度时,第一顺序图像紧跟(1050)在图像序列中的相应图像之后,并且第二顺序图像紧跟在图像序列中的第一顺序图像之后。在一些实施例中,当接触的强度的相应改变具有大于第一幅度的第二幅度时,第一顺序图像与相应图像通过图像序列中的相应数量的图像分隔开,并且第二顺序图像与第一顺序图像通过图像序列中的相应数量的图像分隔开,其中相应数量的图像为一个或多个图像。例如,在图6Q-6S中,当接触636的强度从强度范围618-3内的强度增大到强度范围618-4内的强度时,利用对图像602-4的显示来替代对图像602-3的显示,并且当接触636的强度从强度范围618-3内的强度增大到强度范围618-5内的强度时,利用对图像602-5的显示来替代对图像602-3的显示。
在一些实施例中,第一输入的第一部分包括(1052)在触敏表面上检测到的接触的强度的改变(例如,如图6P-6V所示)。当代表性图像被显示并且接触具有第一强度时,该设备检测接触的强度通过相应量到第二强度的增加。响应于检测到接触的强度通过(相同)相应量的增加,该设备利用对第一后续图像的显示来替代对代表性图像的显示,第一后续图像为在图像序列中的代表性图像之后的相应数量的图像。例如,在图6Q-6R中,接触的强度636从强度范围618-3中的强度增大到强度范围618-4内的强度,并且利用对图像602-4的显示来替代对图像602-3的显示。当显示第一后续图像并且接触具有第二强度时,该设备检测接触的强度通过(相同)相应量的改变。响应于检测到接触的强度通过(相同)相应量的改变:根据接触的强度通过(相同)相应量的改变包括接触的强度从第二强度到第三强度的增加的确定,该设备利用对第二后续图像的显示来替代对第一后续图像的显示,第二后续图像为在图像序列中的第一后续图像之后相应数量的图像;并且根据接触的强度通过(相同)相应量的改变包括接触的强度从第二强度到第一强度的减小的确定,该设备利用对代表性图像的显示来替代对第一后续图像的显示。例如,当接触636的强度从强度范围618-4内的强度增大到如图6R-6S所示的范围618-5内的强度时,利用对图像602-5的显示来替代对图像602-4的显示,并且当接触636的强度从强度范围618-4内的强度减小到如图6T-6U所示的范围618-3内的强度时,利用对图像602-3的显示来替代对图像602-4的显示。
应当理解,图10A-10E中的操作已经被描述的特定顺序仅仅是示例性的并且不旨在指示所描述的顺序是操作能够被执行的唯一顺序。本领域普通技术人员将意识到用于对本文中描述的操作进行重新排序的各种方式。在一些实施方式中,本文中描述的一个或多个操作可以被省略。例如,在一些实施例中,操作1014和1016被省略。额外地,应当指出,本文中关于本文中描述的其他方法(例如,方法900、10000、10050、1100、11000、1200、2400、2500、2600和2700)描述的其他过程的细节也可以类似的方式适用于以上参考图10A-10E描述的方法1000。例如,以上关于方法1000描述的接触、手势、用户界面对象、强度阈值、动画和图像序列可选地具有本文中关于本文中描述的其他方法(例如,方法900、10000、10050、1100、11000、1200、2400、2500、2600和2700)描述的接触、手势、用户界面对象、强度阈值、动画和图像序列的特征中的一个或多个。为简便起见,这里不再重复这些细节。
图10F-10I图示了根据一些实施例的显示(重放)相关图像序列的方法10000的流程图。在具有显示器和触敏表面的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行方法10000。根据一些实施例,该设备包括用于检测与触敏表面的接触的强度的一个或多个传感器。在一些实施例中,所述显示器是触摸屏显示器并且所述触敏表面是在所述显示器上或与所述显示器集成。在一些实施例中,所述显示器与所述触敏表面分离。方法10000中的一些操作可选地被组合和/或一些操作的顺序被可选地改变。
该设备在显示器上显示(10002)代表性图像。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。在一些实施例中,图像序列类似于关于方法1000的操作1002描述的图像序列。
当在显示器上显示代表性图像时,该设备检测(10004)第一输入的第一部分。在一些实施例中,第一输入是(10006)按下并保持手势。在一些实施例中,第一输入类似于关于方法1000的操作1004-1008描述的第一输入。
响应于检测到第一输入的第一部分:该设备从显示代表性图像转变(10008)到显示图像序列中的相应先前图像,其中该相应先前图像是由相机在采集代表性图像之前采集的;并且在从显示代表性图像转变到显示相应先前图像之后,该设备以相应先前图像开始顺序显示由相机在采集代表性图像之前采集的一个或多个图像中的至少一些图像和由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像。在一些实施例中,在从显示代表性图像转变到显示相应先前图像之后,该设备以相应先前图像开始顺序显示由相机在采集代表性图像之前采集的一个或多个图像中的至少一些图像、代表性图像和由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像。
在一些实施例中,从显示代表性图像转变到显示相应先前图像包括顺序显示(10010)由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像,并且之后利用相应先前图像来替代对在采集代表性图像之后采集的相应后续图像的显示(例如,该设备交叉淡变和/或模糊以从显示相应后续图像切换到显示相应先前图像,如参考图6X的示意图650所描述的)。
在一些实施例中,从显示代表性图像转变到显示相应先前图像包括利用相应先前图像来替代(10012)对代表性图像的显示(例如,该设备交叉淡变和/或模糊以从显示代表性图像切换到显示相应先前图像,而不在切换之前显示由相机在采集代表性图像之后采集的一个或多个图像,如参考图6X的示意图656所描述的)。
在一些实施例中,从显示代表性图像转变到显示相应先前图像包括:根据第一输入的第一部分满足第一回放准则(例如,检测到接触的强度到回放强度阈值的缓慢增大或者检测到接触的强度到比快速回放强度阈值更低的缓慢回放强度阈值的增大)的确定,顺序显示(10014)由相机在采集代表性图像之后采集的一个或多个图像,并且之后利用相应先前图像来替代对在采集代表性图像之后采集的相应后续图像的显示(例如,交叉淡变和/或模糊以从显示相应后续图像切换到显示相应先前图像);并且,根据第一输入的第一部分满足与第一回放准则不同的第二回放准则(例如,检测到接触的强度到回放强度阈值的快速增大或者检测到接触的强度到快速回放强度阈值的增大)的确定,利用相应先前图像来替代对代表性图像的显示(例如,交叉淡变和/或模糊以从显示代表性图像切换到显示相应先前图像,而不在切换之前显示由相机在采集代表性图像之后采集的一个或多个图像)。
根据一些实施例,该设备包括(10016)用于检测与触敏表面的接触的强度的一个或多个传感器单元。第一输入包括在触敏表面上的接触。第一回放准则包括当接触具有高于第一强度阈值(例如,图6X的轻压阈值ITL)的特征强度时被满足的准则。第二回放准则包括当接触具有高于比第一强度阈值更大的第二强度阈值(例如,图6X的深压阈值ITD)的特征强度时被满足的准则。
在一些实施例中,(例如,以与参考操作1018、方法1000描述的以固定速率对图像的显示类似的方式)以固定速率以相应先前图像开始顺序显示(10018)由相机在采集代表性图像之前采集的一个或多个图像和由相机在采集代表性图像之后采集的一个或多个图像。
在一些实施例中,该设备呈现(10020)与图像序列相对应的音频(例如,类似于关于方法1000的操作1022描述的对音频的呈现)。
在一些实施例中,在检测到第一输入的第一部分之后,该设备检测(10022)第一输入的第二部分。响应于检测到第一输入的第二部分,该设备顺序显示由相机在采集代表性图像之前采集的一个或多个图像中的至少一些图像和由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像(例如,以与操作1024-1028、方法1000类似的方式)。在一些实施例中,响应于检测到第一输入的第二部分,该设备显示(10024)与图像序列相对应的元数据。
在一些实施例中,该设备检测(10026)第一输入的终止(例如,抬离)。响应于检测到第一输入的终止,该设备显示代表性图像。(例如,以与操作1030-1032、方法1000类似的方式)。
在一些实施例中,当显示图像序列中的第一图像时,该设备检测(10028)第一输入的终止(例如,抬离)。响应于当显示图像序列中的第一图像时检测到第一输入的终止:根据第一图像出现在图像序列中的代表性图像之前的确定,该设备按时间顺序来顺序显示从第一图像到代表性图像的图像,并且根据第一图像出现在图像序列中的代表性图像之后的确定,该设备按反向时间顺序来顺序显示从第一图像到代表性图像的图像(例如,以与操作1034-1036、方法1000类似的方式)。
在一些实施例中,图像序列被配置为(10030)在前向方向或反向方向上以循环方式被顺序显示。当显示图像序列中的第一图像时,该设备检测第一输入的终止(例如,抬离)。响应于当显示图像序列中的第一图像时检测到第一输入的终止:根据当循环在前向方向上被遍历时在第一图像与代表性图像之间存在较少图像的确定,该设备在前向方向上顺序显示从第一图像到代表性图像的图像,并且根据当循环在反向方向上被遍历时在第一图像与代表性图像之间存在较少图像的确定,该设备在反向方向上顺序显示从第一图像到代表性图像的图像(例如,以与操作1038-1042、方法1000类似的方式)。
应当理解,图10F-10I中的操作已经被描述的特定顺序仅仅是示例性的并且不旨在指示所描述的顺序是操作能够被执行的唯一顺序。本领域普通技术人员将意识到用于对本文中描述的操作进行重新排序的各种方式。在一些实施方式中,本文中描述的一个或多个操作可以被省略。例如,在一些实施例中,操作10014和10016被省略。额外地,应当指出,本文中关于本文中描述的其他方法(例如,方法900、1000、10050、1100、11000、1200、2400、2500、2600和2700)描述的其他过程的细节也可以类似的方式适用于以上参考图10F-10I描述的方法10000。例如,以上关于方法10000描述的接触、手势、用户界面对象、强度阈值、动画和图像序列可选地具有本文中关于本文中描述的其他方法(例如,方法900、1000、10050、1100、11000、1200、2400、2500、2600和2700)描述的接触、手势、用户界面对象、强度阈值、动画和图像序列的特征中的一个或多个。为简便起见,这里不再重复这些细节。
图10J-10M图示了根据一些实施例的显示(重放)相关图像序列的方法10050的流程图。在具有显示器和触敏表面的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行方法10050。根据一些实施例,该设备包括用于检测与触敏表面的接触的强度的一个或多个传感器。在一些实施例中,所述显示器是触摸屏显示器并且所述触敏表面是在所述显示器上或与所述显示器集成。在一些实施例中,所述显示器与所述触敏表面分离。方法10050中的一些操作可选地被组合和/或一些操作的顺序被可选地改变。
在具有显示器、触敏表面和用于检测与触敏表面的接触的强度的一个或多个传感器的电子设备处:该设备在显示器上显示(10052)代表性图像(例如,图6Y的代表性图像602-1)。
代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。在一些实施例中,代表性图像是图像序列中的初始图像。在一些实施例中,图像序列包括(10054)由相机在采集代表性图像之前采集的一个或多个图像(例如,图像序列类似于关于方法1000的操作1002描述的图像序列)。
当在显示器上显示代表性图像时,该设备检测(10056)第一输入,其包括检测触敏表面上的接触的特征强度到大于第一强度阈值的第一强度(例如,图6Y-6AA的轻压阈值ITL)的增大。
在一些实施例中,第一输入是(10058)按下并保持手势。在一些实施例中,第一输入类似于关于方法1000的操作1004-1008描述的第一输入。
响应于检测到接触的特征强度的增大,该设备在第一方向上(例如,按时间顺序)以至少部分基于第一强度确定的速率推进(10060)通过由相机在采集代表性图像之后采集的一个或多个图像(例如,如参考图6Y-6AA所描述的)。
在以至少部分基于第一强度确定的速率推进通过由相机在采集代表性图像之后采集的一个或多个图像之后,该设备检测(10062)接触的强度到小于第一强度的第二强度的减小。
响应于检测到接触的特征强度到第二强度的减小:根据第二强度高于第一强度阈值的确定,该设备继续(10064)在第一方向上以第二速率推进通过由相机在采集代表性图像之后采集的一个或多个图像,其中:第二速率至少部分基于第二强度来确定并且第二速率比第一速率更慢;并且,根据第二强度低于第一强度阈值的确定,该设备在与第一方向相反的第二方向(例如,反向时间顺序)上以至少部分基于第二强度确定的速率推进通过由相机在采集代表性图像之后采集的一个或多个图像(例如,设备100将从图像序列602图6AA向后移动到图6BB,因为输入644具有低于轻压阈值ITL的接触强度)。
在一些实施例中,以随着接触的特征强度增大而增大的速率(例如,第一速率和/或第二速率与接触的特征强度成比例)来顺序显示(10066)图像。在一些实施例中,根据接触的特征强度高于第一强度阈值的确定,利用以随着接触的特征强度增大而增大的速率对由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像的顺序显示来替代对代表性图像的显示。
在一些实施例中,根据接触的特征强度低于第一强度阈值的确定,以随着接触的特征强度减小而增大的向后速率(例如,如图6Y-6AA的速率示意图和图6CC-6DD中示出的图形所示)按反向时间顺序显示该序列中的图像。
在一些实施例中,向前速率或向后速率实时地或接近实时地被确定,使得用户可以通过改变接触的特征强度来加速或放慢(在前向方向或向后方向上)通过图像的进度。
在一些实施例中,以与在接触的特征强度与第一强度阈值之间的差成比例的速率(例如,第一速率和/或第二速率与在接触的特征强度与第一强度阈值之间的差成比例)来顺序显示(10068)图像。在一些实施例中,根据接触的特征强度高于第一强度阈值的确定,利用以与在接触的特征强度与第一强度阈值之间的差成比例的速率对由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像的顺序显示来替代对代表性图像的显示。
在一些实施例中,根据接触的特征强度低于第一强度阈值的确定,以与在接触的特征强度与第一强度阈值之间的差成比例的向后速率按反向时间顺序显示该序列中的图像。
在一些实施例中,向前速率或向后速率实时地或接近实时地被确定,使得用户可以通过改变接触的特征强度来加速或放慢(在前向方向或向后方向上)通过图像的进度。
在一些实施例中,该设备随着靠近图像序列的终点而减小(10070)图像序列中的图像被显示的速率(例如,独立于接触的特征强度)。
例如,在一些实施例中,第一速率至少部分基于当前显示的图像到图像序列的结束的接近度来确定(10072)(例如,当回放接近序列的结束时,推进的速率放慢,使得图像序列的回放慢慢到图像序列的结束处的停止点)。因此,该设备当其到达图像序列的结束时轻微“制动”。
作为另一示例,在一些实施例中,第二速率至少部分基于当前显示的图像到图像序列的开始的接近度来确定(10074)(例如,当反向回放接近序列的开始时,向后移动的速率放慢,使得图像序列的反向回放慢慢到图像序列的开始处的停止点)。因此,该设备当其到达按反向时间顺序移动的图像序列的开始时轻微“制动”。
在一些实施例中,当在触敏表面上检测到接触时,推进通过图像序列的速率受最大速率约束(10076)(例如,2x的最大速率,其中x是针对内容的标准回放速度,例如,针对1秒的回放的速度与在对序列中的图像的采集期间经过的1秒的时间相对应)。
在一些实施例中,接近第一强度阈值的接触的特征强度的强度值与至少远离每秒零个图像的速率预定量的速率值相关联(10078)(例如,针对高于第一强度阈值的值为0.2x,并且针对低于第一强度阈值的值为-0.2x)。确保图像序列的回放速率不会接近零防止图像被回放得如此缓慢以至于在各图像之间的不一致性变得显而易见,这避免破坏平滑回放通过图像序列的幻觉。
在一些实施例中,当在触敏表面上检测到接触时,移动通过图像序列的速率受最大反向速率(例如,-2x的最大反向速率)约束(10080)。
在一些实施例中,代表性图像被显示(10082)为设备的锁屏上的背景图像,并且当设备推进通过在相应图像之后捕获的一个或多个图像时,一个或多个前景元素(例如,日期、时间、一个或多个通知、网络状态信息、电池状态信息、设备解锁指令和/或其他状态信息)不改变。
在一些实施例中,该设备显示(10084)与图像序列相对应的元数据。例如,该设备显示诸如以下的元数据:时间、日期、位置(例如,经由GPS)、天气、当图像序列被采集时播放的音乐(例如,利用该设备中的诸如Shazam、SoundHound或Midomi的音乐识别软件识别的音乐)、本地事件信息(例如当第一图像序列被采集时并且在第一图像序列被采集的地方播放的体育比赛)和/或事件后信息(例如最终分数)。
在一些实施例中,该设备检测(10086)接触从触敏表面的抬离。响应于检测到接触的抬离,该设备以比最大反向速率(例如,-4x的速率)更大的速率在第二方向上移动通过图像。
在一些实施例中,该设备检测(10088)第一输入的终止(例如,抬离)。(例如,以与操作1030-1032、方法1000类似的方式)响应于检测到第一输入的终止,该设备显示代表性图像。
在一些实施例中,当显示图像序列中的第一图像时,该设备检测(10090)第一输入的终止(例如,抬离)。响应于当显示图像序列中的第一图像时检测到第一输入的终止:根据第一图像出现在图像序列中的代表性图像之前的确定,该设备按时间顺序来顺序显示从第一图像到代表性图像的图像,并且根据第一图像出现在图像序列中的代表性图像之后的确定,该设备按反向时间顺序来顺序显示从第一图像到代表性图像的图像(例如,以与操作1034-1036、方法1000类似的方式)。
应当理解,图10J-10M中的操作已经被描述的特定顺序仅仅是示例性的并且不旨在指示所描述的顺序是操作能够被执行的唯一顺序。本领域普通技术人员将意识到用于对本文中描述的操作进行重新排序的各种方式。在一些实施方式中,本文中描述的一个或多个操作可以被省略。例如,在一些实施例中,操作10064和10066被省略。额外地,应当指出,本文中关于本文中描述的其他方法(例如,方法900、1000、10000、1100、11000、1200、2400、2500、2600和2700)描述的其他过程的细节也可以类似的方式适用于以上参考图10J-10M描述的方法10050。例如,以上关于方法10050描述的接触、手势、用户界面对象、强度阈值、动画和图像序列可选地具有本文中关于本文中描述的其他方法(例如,方法900、1000、10000、1100、11000、1200、2400、2500、2600和2700)描述的接触、手势、用户界面对象、强度阈值、动画和图像序列的特征中的一个或多个。为简便起见,这里不再重复这些细节。
图11A-11E图示了根据一些实施例的导航通过相关图像序列的方法1100的流程图。在具有显示器和触敏表面的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行方法1100。根据一些实施例,该设备包括用于检测与触敏表面的接触的强度的一个或多个传感器。在一些实施例中,所述显示器是触摸屏显示器并且所述触敏表面是在所述显示器上或与所述显示器集成。在一些实施例中,所述显示器与所述触敏表面分离。方法1100中的一些操作可选地被组合和/或一些操作的顺序被可选地改变。
该设备(例如,在非易失性存储器和/或程序存储器中)存储(1102)多个图像序列。相应图像序列包括由相机拍摄的相应代表性图像、由相机在采集相应代表性图像之后采集的一个或多个图像以及由相机在采集相应代表性图像之前采集的一个或多个图像。在一些实施例中,拍摄相应图像序列的相机是电子设备的部分。在一些实施例中,相应图像序列由不为电子设备的部分的相机拍摄(例如,相应图像序列在利用另一设备上的相机被拍摄之后被传输到电子设备)。在一些实施例中,相应图像序列响应于检测到在第一时间处对快门按钮的激活而获得,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。在一些实施例中,相应代表性图像与由相机采集的代表性图像相对应,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。在一些实施例中,代表性图像具有比相应图像序列中的其他图像更高的分辨率。在一些实施例中,代表性图像具有与相应图像序列中的其他图像相同的分辨率。
该设备在显示器上的可移动第一区域中显示(1104)用于第一图像序列的第一代表性图像(例如,当该设备处于图像呈现模式中时,如图7A所示)。在一些实施例中,可移动第一区域是显示第一图像序列中的图像而不显示来自除了第一图像序列之外的图像序列的图像的区域。
在一些实施例中,第一图像序列是(1106)显示在消息收发应用的可滚动区域中的消息对话中的消息,并且第一图像序列随着消息收发应用的可滚动区域被滚动(例如,随着消息跨显示器移动)而被显示。
该设备检测(1108)触敏表面上的拖拽手势(例如,图7B-7D的拖拽手势736)。在一些实施例中,拖拽手势在显示器上的可移动第一区域中开始。在一些实施例中,拖拽手势在显示器上的可移动第一区域中结束。在一些实施例中,拖拽手势在显示器上的可移动第一区域中开始并结束(例如,因为拖拽手势利用其拖拽可移动第一区域)。
根据拖拽手势处于触敏表面上的第一方向(例如,向左或向上)上的确定(1112):在可移动第一区域中,该设备利用对由相机在采集用于第一图像序列的第一代表性图像之后采集的用于第一图像序列的一个或多个图像中的至少一些图像按时间顺序的显示来替代(1114)对用于第一图像序列的第一代表性图像的显示。该设备还将第一区域在第一方向上移动(1116)(例如,利用拖拽手势拖拽第一区域)。例如,响应于检测到向左拖拽手势,如图7B-7D所示,该设备将第一区域734拖拽到左边。
在一些实施例中,在显示器上在第一方向上对第一区域的移动与在触敏表面上在第一方向上对拖拽手势中的接触的移动相对应(例如,接触的移动似乎直接操纵对第一区域的移动)。更一般地,在一些实施例中,对将图像显示在相应图像序列中的相应区域的移动与在触敏表面上对拖拽手势中的接触的移动相对应。
在一些实施例中,在第一区域中对由相机在采集第一代表性图像之后采集的用于第一图像序列的一个或多个图像中的至少一些图像按时间顺序的显示根据拖拽手势中的接触的移动出现。因此,如果在第一方向上对接触的移动加速,则在第一区域中对图像的时间进度的显示加速。如果在第一方向上对接触的移动放慢,则在第一区域中对图像的时间进度的显示放慢。如果在第一方向上对接触的移动暂停,则在第一区域中对图像的时间进度的显示暂停。并且,如果接触的移动反转方向(例如,从向左拖拽手势到向右拖拽手势),则在第一区域中对第一图像序列中的图像的进展的显示被反向,并且图像根据在反转方向上对接触的移动按反向时间顺序被示出。更一般地,在一些实施例中,针对相应图像序列,对相应图像序列中的图像的进展的显示根据拖拽手势中的接触的移动出现。
在一些实施例中,将第一区域在第一方向上移动包括(1118)将第一区域的至少部分在第一方向上(例如,向左或向上)移动离开显示器。在一些实施例中,由于将第一区域在第一方向上移动,所以仅仅第一区域的一部分被显示在显示器上。例如,如图7B-7D所示,第一区域734的部分被拖拽离开屏幕。
在一些实施例中,根据拖拽手势处于在触敏表面上的第一方向(例如,向左或向上)上的确定:该设备将可移动第二区域在第一方向上移动(1120)。在一些实施例中,可移动第二区域是显示第二图像序列中的图像而不显示来自除了第二图像序列之外的图像序列的图像(例如,图7B-7D的可移动第二区域738)的区域。在一些实施例中,可移动第二区域与可移动第一区域相邻(例如,在可移动第一区域的右边)。在一些实施例中,可移动第二区域是用于下一图像序列的区域。当将第二区域在第一方向上移动时,该设备还将由相机在采集用于第二图像序列的第二代表性图像之前采集的用于第二图像序列(例如,下一图像序列)的一个或多个图像中的至少一些图像按时间顺序显示(1122)在第二区域中。
在一些实施例中,在第二区域中对由相机在采集第二代表性图像之前采集的用于第二图像序列的一个或多个图像中的至少一些图像按时间顺序的显示根据拖拽手势中的接触的移动出现(例如,以与以上关于第一图像序列描述的类似的方式)。例如,在拖拽手势期间,第一区域中的图像和第二区域的图像同时以相同速率推进,其中速率基于接触的移动。
在一些实施例中,当将第二区域在第一方向上移动时,第二区域仅仅显示用于第二图像序列的第二代表性图像而不显示第二图像序列中的其他图像。
在一些实施例中,代替将第二区域在第一方向上移动时,第二区域在z层(前后)顺序中在第一区域下面,并且当第一区域在第一方向上移动离开显示器时第二区域被显露。
在一些实施例中,类似于检测在第一方向上的拖拽手势,检测对下一个图标或按钮(例如,图7A的下一个图标750-1)的激活也导致在第一区域中对来自第一序列的图像的动画显示和在第二区域中对来自第二序列的图像的动画显示。在一些实施例中,检测对下一个图标或按钮的激活导致对第二代表性图像的显示替代对第一代表性图像的显示,而没有在第一区域中对来自第一序列的图像的动画显示并且没有在第二区域中对来自第二序列的图像的动画显示。在一些实施例中,检测对下一个图标或按钮的激活导致对第二代表性图像的显示替代对第一代表性图像的显示,而没有对第一序列或第二序列中的其他图像进行显示。在一些实施例中,对不同类型的输入(例如,向左拖拽手势对比对下一图标或按钮的激活)的响应是用户可例如经由设置界面配置的。
在一些实施例中,将第二区域在第一方向上移动包括(1124)将第二区域的至少部分在第一方向上(例如,向左或向上)移动到显示器上。在一些实施例中,由于将第二区域在第一方向上移动,所以仅仅第二区域的一部分被显示在显示器上,其中第二区域的更多部分随着第二区域在第一方向被拖拽而被显露。例如,如图7B-7D所示,第二区域738的部分被拖拽到屏幕上。
在一些实施例中,根据拖拽手势在触敏表面上处于第一方向(例如,向左或向上)上的确定:在将第二区域在第一方向上移动之后,该设备将用于第二图像序列的第二代表性图像显示(1126)在第二区域中。例如,图7F图示了作为拖拽手势736(图7B-7D)的结局,第二代表性图像724-3被显示(即使在任选的中间操作被执行的情况下,如下面所描述的)。
在一些实施例中,当将用于第二图像序列的第二代表性图像显示在第二区域中时,该设备检测(1128)与第二代表性图像相对应的输入的强度的改变。响应于检测到输入的强度的改变,该设备在第二区域中推进(1130)通过第二图像序列而不将第二区域在显示器上移动(例如,以按时间顺序在第二代表性图像之后的图像开始并且循环回到按时间顺序在第二代表性图像之前的图像)。例如,在一些实施例中,用户可以暂停拖拽手势,由此将拖拽手势转换为触发对第二图像序列进行回放的按下并保持手势,如参考方法1000/10000/10050、图10A-10M更详细地描述的。
在一些实施例中,当移动第一区域和第二区域时,该设备检测(1132)拖拽手势的终止(例如,抬离)。响应于当移动第一区域和第二区域时检测到拖拽手势的终止(1134):根据拖拽手势满足下一序列导航准则(例如,超过一半的第一区域已经移动离开显示器(如图7E所示)或者超过另一预定义部分(例如,0.2、0.3或0.4)的第一区域已经移动离开显示器或者拖拽手势是具有高于预定义阈值速度的抬离速度的轻弹手势)的确定:该设备将第一区域在第一方向上完全移动(1136)离开显示器;将第二区域完全移动到显示器上;并且将用于第二图像序列的第二代表性图像显示在第二区域中。在一些实施例中,当第一区域移动离开显示器时(例如,甚至在输入被终止之后),在第一区域中对由相机在采集第一代表性图像之后采集的用于第一图像序列的一个或多个图像中的至少一些图像按时间顺序的显示继续。在一些实施例中,当第二区域移动到显示器上直到第二代表性图像被显示时,在第二区域中对由相机在采集第二代表性图像之前采集的用于第二图像序列的一个或多个图像中的至少一些图像按时间顺序的显示继续。
在一些实施例中,响应于当移动第一区域和第二区域时检测到拖拽手势的终止:根据拖拽手势不满足下一序列导航准则的确定:该设备将第二区域在与第一方向相反的第二方向上完全移动(1138)离开显示器;将第一区域完全移动到显示器上;并且将用于第一图像序列的第一代表性图像显示在第一区域中。在一些实施例中,当第一区域完全移动到显示器上直到第一代表性图像被显示时,在第一区域中对由相机在采集第一代表性图像之后采集的用于第一图像序列的一个或多个图像中的至少一些图像按时间顺序的显示被反转。在一些实施例中,当第二区域完全移动离开显示器时,在第二区域中对由相机在采集第二代表性图像之前采集的用于第二图像序列的一个或多个图像中的至少一些图像按时间顺序的显示被反转。
根据一些实施例,根据拖拽手势处于触敏表面上的第二方向(例如,向右或向下)上的确定(1140):在可移动第一区域中,该设备利用对由相机在采集用于第一图像序列的第一代表性图像之前采集的用于第一图像序列的一个或多个图像中的至少一些图像的按反向时间顺序显示来替代(1142)对用于第一图像序列的第一代表性图像的显示。该设备还将第一区域在第二方向上(例如,向右或向下)移动(1144)。
在一些实施例中,在显示器上在第二方向上对第一区域的移动与在触敏表面上在第二方向上对拖拽手势中的接触的移动相对应(例如,接触的移动似乎直接操纵对第一区域的移动)。更一般地,在一些实施例中,对将图像显示在相应图像序列中的相应区域的移动与在触敏表面上对拖拽手势中的接触的移动相对应。
在一些实施例中,在第一区域中对由相机在采集第一代表性图像之前采集的用于第一图像序列的一个或多个图像中的至少一些图像的按反向时间顺序显示根据拖拽手势中的接触的移动出现。因此,如果在第二方向上对接触的移动加速,则在第一区域中对图像的反向时间进度的显示加速。如果在第二方向上对接触的移动放慢,则在第一区域中对图像的反向时间进度的显示放慢。如果在第二方向上对接触的移动暂停,则在第一区域中对图像的反向时间进度的显示暂停。并且,如果接触的移动反转方向(例如,从向右拖拽手势到向左拖拽手势),则在第一区域中对第一图像序列中的图像的进展的显示被反向,并且图像根据在反转方向上对接触的移动按时间顺序被示出。更一般地,在一些实施例中,针对相应图像序列,对相应图像序列中的图像的进展的显示根据拖拽手势中的接触的移动出现。
在一些实施例中,将第一区域在第二方向上移动包括(1146)将第一区域的至少部分在第二方向上(例如,向右或向下)移动离开显示器。例如,响应于检测到图7G-7I的向右拖拽手势744,该设备当按反向时间顺序显示第一图像序列702时将第一区域734移动离开显示器上移动到右边。
在一些实施例中,根据拖拽手势在触敏表面上处于第二方向(例如,向右或向下)上的确定:该设备将第三区域在第二方向上移动(1148)。在一些实施例中,可移动第三区域是显示第三图像序列中的图像而不显示来自除了第三图像序列之外的图像序列的图像的区域。在一些实施例中,可移动第三区域与可移动第一区域相邻(例如,在可移动第一区域的左边)。当将第三区域在第二方向上移动时,该设备还将由相机在采集用于第三图像序列的第三代表性图像之后采集的用于第三图像序列的一个或多个图像中的至少一些图像按反向时间顺序显示(1150)在第三区域中。
在一些实施例中,在第三区域中对由相机在采集第三代表性图像之后采集的用于第三图像序列的一个或多个图像中的至少一些图像的按反向时间顺序显示根据拖拽手势中的接触的移动出现(例如,以与以上关于第一图像序列描述的类似的方式)。例如,在拖拽手势期间,第一区域中的图像和第三区域的图像同时以相同速率后退,其中速率基于接触的移动。
在一些实施例中,当将第三区域在第二方向上移动时,第三区域仅仅显示用于第三图像序列的第三代表性图像而不显示第三图像序列中的其他图像。
在一些实施例中,代替将第一区域在第二方向上移动时,第一区域在z层(前后)顺序中在第三区域下面,并且当第三区域在第二方向上移动到显示器上时第一区域被覆盖。
在一些实施例中,类似于检测在第二方向上的拖拽手势,检测对前一个图标(例如,图7A的前一个图标750-1)或按钮的激活也导致在第一区域中对来自第一序列的图像的动画显示和在第三区域中对来自第三序列的图像的动画显示。在一些实施例中,检测对前一个图标或按钮的激活导致对第三代表性图像的显示替代对第一代表性图像的显示,而没有在第一区域中对来自第一序列的图像的动画显示并且没有在第三区域中对来自第三序列的图像的动画显示。在一些实施例中,检测对前一个图标或按钮的激活导致对第三代表性图像的显示替代对第一代表性图像的显示,而没有对第一序列或第三序列中的其他图像进行显示。在一些实施例中,对不同类型的输入(例如,向右拖拽手势对比对前一图标或按钮的激活)的响应是用户可例如经由设置界面配置的。
在一些实施例中,将第三区域在第二方向上移动包括(1152)将第三区域的至少部分在第二方向上(例如,向右或向下)移动到显示器上。例如,响应于检测到图7G-7I的向右拖拽手势744,该设备当按反向时间顺序显示第三图像序列726时将第三区域746从右边移动到显示器上。
在一些实施例中,第一图像序列由相机在第二图像序列之前采集(1154),并且第一图像序列由相机在第三图像序列之后采集。例如,图像序列是按时间顺序从左到右的。
在一些实施例中,根据拖拽手势在触敏表面上处于第二方向(例如,向右或向下)上的确定:在将第三区域在第二方向上移动之后,该设备将用于第三图像序列的第三代表性图像显示(1156)在第三区域(例如,如图7K所示)中。
在一些实施例中,当移动第一区域和第三区域(例如,如图7J所示)时,该设备检测(1158)拖拽手势的终止(例如,抬离)。响应于当移动第一区域和第三区域时检测到(1160)拖拽手势的终止:根据拖拽手势满足(1162)前一序列导航准则(例如,第一区域处于离开显示器至少一半(如图7J所示)或者超过另一预定义部分(例如,0.2、0.3或0.4)的第一区域已经移动离开显示器或者拖拽手势是具有高于预定义阈值速度的抬离速度的轻弹手势)的确定:该设备将第一区域在第二方向上(例如,向右或向下)完全移动离开显示器;将第三区域完全移动到显示器上;并且将用于第三图像序列的第三代表性图像显示在第三区域中。在一些实施例中,当第一区域移动离开显示器时,对由相机在采集第一代表性图像之前采集的用于第一图像序列的一个或多个图像中的至少一些图像的按反向时间顺序显示继续。在一些实施例中,当第三区域移动到显示器上直到第三代表性图像被显示时,在第三区域中对由相机在采集第三代表性图像之后采集的用于第三图像序列的一个或多个图像中的至少一些图像的按反向时间顺序显示继续。
在一些实施例中,根据拖拽手势不满足(1164)前一序列导航准则的确定:该设备将第三区域在第一方向上(例如,向左或向上)完全移动离开显示器;将第一区域完全移动到显示器上;并且将用于第一图像序列的第一代表性图像显示在第一区域中。在一些实施例中,当第一区域完全移动到显示器上直到第一代表性图像被显示时,在第一区域中对由相机在采集第一代表性图像之前采集的用于第一图像序列的一个或多个图像中的至少一些图像的按反向时间顺序显示被反转。在一些实施例中,当第三区域完全移动离开显示器时,在第三区域中对由相机在采集第三代表性图像之后采集的用于第三图像序列的一个或多个图像中的至少一些图像的按反向时间顺序显示被反转。
应当理解,图11A-11E中的操作已经被描述的特定顺序仅仅是示例性的并且不旨在指示所描述的顺序是操作能够被执行的唯一顺序。本领域普通技术人员将意识到用于对本文中描述的操作进行重新排序的各种方式。额外地,应当指出,本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、11000、1200、2400、2500、2600和2700)描述的其他过程的细节也可以类似的方式适用于以上参考图11A-11E描述的方法1100。例如,以上关于方法1100描述的接触、手势、用户界面对象、强度阈值、动画和图像序列可选地具有本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、11000、1200、2400、2500、2600和2700)描述的接触、手势、用户界面对象、强度阈值、动画和图像序列的特征中的一个或多个。为简便起见,这里不再重复这些细节。
图11F-11I图示了根据一些实施例的导航通过相关图像序列的方法11000的流程图。在具有显示器和触敏表面的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行方法11000。根据一些实施例,该设备包括用于检测与触敏表面的接触的强度的一个或多个传感器。在一些实施例中,所述显示器是触摸屏显示器并且所述触敏表面是在所述显示器上或与所述显示器集成。在一些实施例中,所述显示器与所述触敏表面分离。方法11000中的一些操作可选地被组合和/或一些操作的顺序被可选地改变。
该设备存储(11002)多个图像序列。相应图像序列包括由相机拍摄的相应代表性图像以及由相机在采集相应代表性图像之前采集的一个或多个图像。在一些实施例中,拍摄相应图像序列的相机是电子设备的部分。在一些实施例中,相应图像序列包括(11004)由相机在采集相应代表性图像之后采集的一个或多个图像。
在一些实施例中,相应图像序列由不为电子设备的部分的相机拍摄(例如,相应图像序列在利用另一设备上的相机被拍摄之后被传输到电子设备)。在一些实施例中,相应图像序列响应于检测到在第一时间处对快门按钮的激活而获得,如在本文中参考图9A-9G和方法900和/或图26A-26D和方法2600所描述的。在一些实施例中,相应代表性图像与由相机采集的代表性图像相对应,如在本文中参考图9A-9G和方法900和/或图26A-26D和方法2600所描述的。在一些实施例中,代表性图像具有比相应图像序列中的其他图像更高的分辨率。在一些实施例中,代表性图像具有与相应图像序列中的其他图像相同的分辨率。
该设备在显示器上的可移动第一区域中显示(11006)用于第一图像序列的第一代表性图像(例如,当该设备处于图像呈现模式中时)。在一些实施例中,可移动第一区域是显示第一图像序列中的图像而不显示来自除了第一图像序列之外的图像序列的图像(例如,图7Q的代表性图像702-3)的区域。
在一些实施例中,第一图像序列是(11108)显示在消息收发应用的可滚动区域中的消息对话中的消息,并且第一图像序列随着消息收发应用的可滚动区域被滚动而被显示(例如,如参考操作1106、方法1100所描述的)。
该设备检测(11010)触敏表面上的手势,该手势包括通过与在显示器上的第一方向上的移动相对应的接触的移动(例如,图7Q-7S的轻弹/轻扫手势740和/或图7Y-7AA的拖拽手势764)。
响应于检测到触敏表面上的手势,该设备:在显示器上将第一区域在第一方向上移动(11012)(例如,关于第一代表性图像);在显示器上将可移动第二区域在第一方向上移动;并且根据序列显示准则被满足的确定,当将第二区域在第一方向上移动时,在第二区域中按时间顺序显示由相机在采集用于第二图像序列的第二代表性图像之前采集的用于第二图像序列的一个或多个图像中的至少一些图像(例如,显示图7R-7T的图像序列724)。在一些实施例中,在显示器上在第一方向上对第一区域的移动与在触敏表面上在第一方向上对手势中的接触的移动相对应(例如,接触的移动似乎直接操纵对第一区域的移动)。在一些实施例中,可移动第二区域是显示第二图像序列中的图像而不显示来自除了第二图像序列之外的图像序列的图像的区域。在一些实施例中,可移动第二区域与可移动第一区域相邻(例如,在可移动第一区域的右边)。
在一些实施例中,响应于检测到触敏表面上的手势:根据序列显示准则未被满足的确定,当将第二区域在第一方向上移动时,该设备将用于第二图像序列的第二代表性图像显示(11014)在显示器上的可移动第二区域中(而不将第二图像序列中的其他图像显示在可移动第二区域中)。在一些实施例中,根据序列显示准则未被满足的确定,当将第二区域在第一方向上移动时,该设备将用于第二图像序列的初始图像(而非第二代表性图像)或者在用于第二图像序列的第二代表性图像之前采集的另一图像显示在显示器上的可移动第二区域中。
在一些实施例中,序列显示准则包括(11016)在第二区域中按时间顺序显示由相机在采集第二代表性图像之前采集的用于第二图像序列的一个或多个图像中的至少一些图像之前接触抬离的准则。在一些实施例中,如果当将第二区域在第一方向上移动时继续检测到接触,则当将第二区域在第一方向上移动时仅仅用于第二图像序列的代表性图像(或者仅仅初始图像)被显示。例如,接触是缓慢地跨触敏表面移动并且将第二区域缓慢地向左(或向右)拖拽的向左(或向右)拖拽手势。相反,如果当将第二区域在第一方向上移动时不再检测到接触,则当将第二区域继续在第一方向上移动时在第二区域中显示在第二代表性图像之前拍摄的动画演示的图像序列。例如,接触是快速地跨触敏表面移动并且之后当第二区域仍然向左(或向右)移动时抬离的向左(或向右)轻弹手势的部分。例如,接触是(当在第二区域中显示仅仅用于第二图像序列的第二代表性图像或初始图像时)跨触敏表面移动并且之后在第二区域的至少预定量(例如,25%、30%、40%或50%)已经移动到显示器上之后抬离的向左(或向右)拖拽手势的部分。在抬离之后中,第二区域的剩余部分移动到显示器上,并且在第二区域中显示由相机在采集第二代表性图像之前采集的用于第二图像序列的图像中的至少一些图像。
在一些实施例中,在显示器上将可移动第二区域在第一方向上移动包括(11018)在第二区域中显示在采集第二代表性图像之前采集的相应先前图像(例如,该设备最初显示图像序列中的初始图像而非代表性图像)。
在一些实施例中,序列显示准则包括(11020)检测接触的抬离(例如,如参考图7Y-7AA所描述的)。响应于检测到接触的抬离,该设备继续将可移动第二区域在第一方向上移动并且继续将可移动第一区域在第一方向上移动。来自第二图像序列的图像以一速率被显示以使得当可移动第二区域停止在第一方向上移动时第二代表性图像被显示在可移动第二区域中(例如,可移动第二区域的移动的速率被选择为与移动通过图像序列的速率相匹配,或者推进通过图像序列的速率被选择为与可移动第二区域的移动的速率相匹配,或者这两者的组合)。在一些实施例中,当可移动第一区域正在移动时,该设备推进通过与可移动第一区域相对应的图像序列。在一些实施例中,当可移动第一区域正在移动时,该设备不推进通过与可移动第一区域相对应的图像序列。
在一些实施例中,当将可移动第一区域移动时,该设备显示(11022)用于可移动第一区域内的图像的模拟视差效果以使得可移动第一区域内的图像相对于可移动第一区域的帧偏移(例如,似乎可移动第一区域的帧与可移动第一区域内的图像在模拟z方向上被分开)。
在一些实施例中,当(例如,在显示来自第二图像序列的图像之前)在触敏表面上检测到接触时将可移动第二区域移动时,该设备显示(11024)用于可移动第二区域内的图像的模拟视差效果以使得可移动第二区域内的图像相对于可移动第二区域的帧偏移(例如,似乎可移动第二区域的帧与可移动第二区域内的图像在模拟z方向上被分开)。
在一些实施例中,将第一区域在第一方向上移动包括(11026)将第一区域的至少部分在第一方向上(例如,将第一区域滑动离开显示器,图7A-7CC)移动离开显示器。
在一些实施例中,将第二区域在第一方向上移动包括(11028)将第二区域的至少部分在第一方向上(例如,将第二区域滑动到显示器上连同将第一区域滑动离开显示器,图7A-7CC)移动到显示器上。
在一些实施例中,在将第二区域在第一方向上移动之后,该设备将用于第二图像序列的第二代表性图像显示(11030)在第二区域中(例如,如图7CC以及其他所示)。
在一些实施例中,当将用于第二图像序列的第二代表性图像显示在第二区域中时,该设备检测(11032)与第二代表性图像相对应的输入的强度的改变。响应于检测到输入的强度的改变,该设备在第二区域中推进通过第二图像序列而不将第二区域在显示器上移动(例如,该设备执行图6A-6FF中示出的操作中的任何)。
在一些实施例中,当移动第一区域和第二区域时,该设备检测(11034)拖拽手势的终止。响应于当移动第一区域和第二区域时检测到拖拽手势的终止:根据拖拽手势满足下一序列导航准则的确定:该设备将第一区域在第一方向上完全移动离开显示器;将第二区域完全移动到显示器上;并且在第二区域中显示用于第二图像序列的第二代表性图像(例如,如参考操作1136、方法1100所描述的)。
在一些实施例中,响应于当移动第一区域和第二区域时检测到拖拽手势的终止:根据拖拽手势不满足下一序列导航准则的确定:该设备将第二区域在与第一方向相反的第二方向上完全移动(11036)离开显示器;将第一区域完全移动到显示器上;并且在第一区域中显示用于第一图像序列的第一代表性图像(例如,如参考操作1138、方法1100所描述的)。
应当理解,图11F-11I中的操作已经被描述的特定顺序仅仅是示例性的并且不旨在指示所描述的顺序是操作能够被执行的唯一顺序。本领域普通技术人员将意识到用于对本文中描述的操作进行重新排序的各种方式。额外地,应当指出,本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、1100、1200、2400、2500、2600和2700)描述的其他过程的细节也可以类似的方式适用于以上参考图11F-11I描述的方法11000。例如,以上关于方法11000描述的接触、手势、用户界面对象、强度阈值、动画和图像序列可选地具有本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、1100、1200、2400、2500、2600和2700)描述的接触、手势、用户界面对象、强度阈值、动画和图像序列的特征中的一个或多个。为简便起见,这里不再重复这些细节。
图12A-12B图示了根据一些实施例的对相关图像序列执行与个体图像相比较完全不同的操作的方法1200的流程图。在具有显示器和触敏表面的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行方法1200。根据一些实施例,该设备包括用于检测与触敏表面的接触的强度的一个或多个传感器。在一些实施例中,所述显示器是触摸屏显示器并且所述触敏表面是在所述显示器上或与所述显示器集成。在一些实施例中,所述显示器与所述触敏表面分离。方法1200中的一些操作可选地被组合和/或一些操作的顺序被可选地改变。
该设备存储(1202)多个图像序列。相应图像序列包括由相机拍摄的相应代表性图像、由相机在采集相应代表性图像之后采集的一个或多个图像以及由相机在采集相应代表性图像之前采集的一个或多个图像。在一些实施例中,拍摄相应图像序列的相机是电子设备的部分。在一些实施例中,相应图像序列由不为电子设备的部分的相机拍摄(例如,相应图像序列在利用另一设备上的相机被拍摄之后被传输到电子设备)。在一些实施例中,相应图像序列响应于检测到在第一时间处对快门按钮的激活而获得,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。在一些实施例中,相应图像序列以连串模式来获得。在一些实施例中,相应代表性图像与由相机采集的代表性图像相对应,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。在一些实施例中,代表性图像具有比相应图像序列中的其他图像更高的分辨率。在一些实施例中,代表性图像具有与相应图像序列中的其他图像相同的分辨率。
该设备存储(1204)与多个图像序列中的图像完全不同的多个图像。多个图像中的相应图像不是多个图像序列中的图像序列的部分。
该设备在显示器上显示(1206)第一图像(例如,如图8A所示)。当在显示器上显示第一图像时,该设备检测(1208)第一输入(例如,图8B的按下并保持输入816)。响应于检测到(1210)第一输入:根据第一图像是第一图像序列中的图像(例如,第一图像是用于第一图像序列的代表性图像)的确定,该设备执行(1212)第一操作,该第一操作包括显示第一图像序列中的在第一图像以外的图像中的至少一些图像(例如,顺序显示第一图像序列中的在第一图像以外的图像中的至少一些图像)(例如,如图8C-8F所示)。根据第一图像是与多个图像序列中的图像完全不同的多个图像中的图像的确定,该设备执行(1214)涉及(例如,如图8K-8L所示的)第一图像的与第一操作完全不同的第二操作。即,该设备取决于图像是增强型照片的部分还是静止图像来不同地对相同类型的输入(例如,共享一个或多个共同路径或强度特征的输入)做出响应。根据各种实施例,第一操作是在本文中关于图像序列描述的操作中的任何。下面提供具体示例。
在一些实施例中,第一输入是(1216)按下并保持手势,第一操作显示第一图像序列的至少部分(例如,如本文中参考图10A-10M和方法1000/10000/10050所描述的),并且第二操作将关于第一图像的信息与第一图像一起显示(例如,时间、日期、位置(例如,经由GPS)和/或关于第一图像的其他元数据被叠加在第一图像的部分上,如图8K-8L所示)。在一些实施例中,当游标或其他焦点选择器在显示器上的第一图像上时,按下并保持手势是触敏显示器上的第一图像上的按下并保持手势或者触控板上的按下并保持手势。在一些实施例中,第一输入是当游标或其他焦点选择器在显示器上的第一图像上时利用鼠标的点击并保持输入。
在一些实施例中,第一输入是(1218)按下并保持手势,第一操作显示第一图像序列的至少部分(例如,如本文中参考图10A-10M和方法1000/10000/10050所描述的),并且第二操作显示示出第一图像的不同部分的动画。在一些实施例中,当游标或其他焦点选择器在显示器上的第一图像上时,按下并保持手势是触敏显示器上的第一图像上的按下并保持手势或者触控板上的按下并保持手势。在一些实施例中,第一输入是当游标或其他焦点选择器在显示器上的第一图像上时利用鼠标的点击并保持输入。例如,第二操作是对第一图像进行缩放和/或平移的动画(例如,Ken Burns特效)和/或将滤镜应用到第一图像的动画。在一些实施例中,第二操作包括从图像进行缩小从而给出第一图像被推回到显示器中的印象。
在一些实施例中,该设备包括(1220)用于检测与触敏表面的接触的强度的一个或多个传感器,第一输入包括满足第一接触强度准则的手指接触(例如,当游标或其他焦点选择器在显示器上的第一图像上时,触敏显示器上的第一图像上的手指手势,或者触控板上的手指手势,其中手指手势中的接触超过针对输入的至少部分的轻压(或深压)强度阈值),第一操作显示第一图像序列的至少部分(例如,如本文中参考图10A-10M和方法1000/10000/10050所描述的),并且第二操作将关于第一图像的信息与第一图像一起显示(例如,时间、日期、位置(例如,经由GPS)和/或关于第一图像的其他元数据被叠加在第一图像的部分上)。
在一些实施例中,该设备包括(1222)用于检测与触敏表面的接触的强度的一个或多个传感器,第一输入包括满足第一接触强度准则的手指接触(例如,当游标或其他焦点选择器在显示器上的第一图像上时,触敏显示器上的第一图像上的手指手势,或者触控板上的手指手势,其中手指手势中的接触超过针对输入的至少部分的深压强度阈值),第一操作显示第一图像序列的至少部分(例如,如本文中参考图10A-10M和方法1000/10000/10050所描述的),并且第二操作显示示出第一图像的不同部分的动画。例如,第二操作是对第一图像进行缩放和/或平移的动画(例如,Ken Burns特效)和/或将滤镜应用到第一图像的动画。在一些实施例中,第二操作包括从图像进行缩小从而给出第一图像被推回到显示器中的印象。
在一些实施例中,第一输入是(1224)拖拽手势,第一操作当从显示第一图像转变到显示第二图像(第二图像不是第一图像序列中的图像)时显示第一图像序列中的图像中的至少部分(例如,如本文中参考图10A-10M和方法1000/10000/10050所描述的),并且第二操作从显示第一图像转变到显示第三图像(第三图像不是第一图像序列中的图像)。
在一些实施例中,当第一图像是第一图像序列中的图像时,该方法还包括检测导航输入并导航到第二图像,第二图像是多个图像中的与多个图像序列中的图像完全不同的图像。该方法还包括检测与第一输入共享一个或多个特征(例如,强度和/或路径输入)的第二输入。在一些实施例中,第一输入和第二输入不必共享位置。该方法还包括响应于检测到第二输入,执行涉及第二图像的第二操作。
应当理解,图12A-12B中的操作已经被描述的特定顺序仅仅是示例性的并且不旨在指示所描述的顺序是操作能够被执行的唯一顺序。本领域普通技术人员将意识到用于对本文中描述的操作进行重新排序的各种方式。额外地,应当指出,本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、1100、11000、2400、2500、2600和2700)描述的其他过程的细节也可以类似的方式适用于以上参考图12A-12B描述的方法1200。例如,以上关于方法1200描述的接触、手势、用户界面对象、强度阈值、动画和图像序列可选地具有本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、1100、11000、2400、2500、2600和2700)描述的接触、手势、用户界面对象、强度阈值、动画和图像序列的特征中的一个或多个。为简便起见,这里不再重复这些细节。
根据一些实施例,图13示出了根据各种描述的实施例的原理配置的电子设备1300的功能方框图。所述设备的功能框可选地由硬件、软件或硬件和软件的组合实施以实现各种描述的实施例的原理。本领域技术人员应理解,图13中描述的功能框可选地被组合或被分离成子框以实施各种描述的实施例的原理。因此,本文中的描述可选地支持对本文中描述的功能框的任何可能的组合或分离或进一步限定。
如图13所示,电子设备1300包括:相机单元1304,其被配置为采集图像;显示单元1302,其被配置为显示(例如,从相机单元获得的图像的)实时预览;一个或多个可选传感器单元1306,其被配置为检测对快门按钮的激活;以及处理单元1308,其与显示单元1302、相机单元1304和一个或多个可选传感器单元1306耦合。在一些实施例中,处理单元1308包括:显示使能单元1310、分组单元1312、关联单元1314和动画演示单元1316。
处理单元1308被配置为:当处于用于相机单元1304的第一媒体采集模式中时,(例如,使用显示使能单元1310)在显示单元1302上显示(例如,从相机单元1304获得的图像的)实时预览,当显示实时预览时,(例如,使用传感器单元1306)检测在第一时间处对快门按钮的激活。响应于检测到在第一时间处对快门按钮的激活,处理单元1308被配置为(例如,利用分组单元1312)将由相机单元1304在与在第一时间处对快门按钮的激活接近的时间上采集的多个图像分组到第一图像序列中。第一图像序列包括:由相机单元1304在检测到在第一时间处对快门按钮的激活之前采集的多个图像;代表性图像,该代表性图像代表第一图像序列并且由相机单元1304在第一图像序列中的其他图像中的一个或多个图像之后采集;以及由相机单元1304在采集代表性图像之后采集的多个图像。
如图14所示,电子设备1400包括:显示单元1402,其被配置为显示图像;触敏表面单元1404,其被配置为检测用户输入;一个或多个可选传感器单元1406,其被配置为检测与触敏表面单元1404的接触的强度;以及处理单元1408,其与显示单元1402、触敏表面单元1404以及一个或多个可选传感器单元1406耦合。在一些实施例中,处理单元1408包括:显示使能单元1410、检测单元1412和音频呈现单元1414。
处理单元1408被配置为(例如,利用显示使能单元1410)在显示单元1402上显示代表性图像。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像,并且图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。处理单元1408还被配置为当在显示单元1402上显示代表性图像时(例如,利用检测单元1412,其可选地检测触敏表面单元1404上的输入)检测第一输入的第一部分。处理单元1408被配置为响应于检测到第一输入的第一部分(例如,利用显示使能单元1410)利用在显示单元1402上对由相机在采集代表性图像之后采集的一个或多个图像的顺序显示来替代代表性图像的显示。处理单元1408被配置为(例如,利用检测单元1412)在检测到第一输入的第一部分之后检测第一输入的第二部分。处理单元1408被配置为响应于检测到第一输入的第二部分,在显示单元1402上顺序显示由相机在采集代表性图像之前采集的一个或多个图像、代表性图像和由相机在采集代表性图像之后采集的一个或多个图像。
如图15所示,电子设备1500包括:显示单元1502,其被配置为显示图像;触敏表面单元1504,其被配置为检测用户输入;一个或多个可选传感器单元1506,其被配置为检测与触敏表面单元1504的接触的强度;存储单元1516,其被配置为存储图像;以及处理单元1508,其与显示单元1502、触敏表面单元1504、存储单元1516以及一个或多个可选传感器单元1506耦合。在一些实施例中,处理单元1508包括:显示使能单元1510、检测单元1512和准则确定单元1514。
处理单元1508被配置为在存储器单元1516中存储多个图像序列。相应图像序列包括由相机拍摄的相应代表性图像、由相机在采集相应代表性图像之后采集的一个或多个图像以及由相机在采集相应代表性图像之前采集的一个或多个图像。处理单元1508还被配置为(例如,利用显示使能单元1510)在显示单元1502上将用于第一图像序列的第一代表性图像显示在显示单元1502上的可移动第一区域中。处理单元1508还被配置为(例如,利用检测单元1512)检测在触敏表面单元1504上的拖拽手势。根据拖拽手势处于触敏表面单元1504上的第一方向上的确定:处理单元1508被配置为(例如,利用显示使能单元1510)在可移动第一区域中,利用在显示单元1502上由相机在采集用于第一图像序列的第一代表性图像之后采集的用于第一图像序列的一个或多个图像中的至少一些图像按时间顺序的显示来替代对用于第一图像序列的第一代表性图像的显示。处理单元1508还被配置为在显示单元1502上将第一区域在第一方向上(例如,利用显示使能单元1510)移动。
如图16所示,电子设备1600包括:显示单元1602,其被配置为显示图像;触敏表面单元1604,其被配置为检测用户输入;一个或多个可选传感器单元1606,其被配置为检测与触敏表面单元1604的接触的强度;存储单元1616,其被配置为存储图像;以及处理单元1608,其与显示单元1602、触敏表面单元1604、存储单元1616以及一个或多个可选传感器单元1606耦合。在一些实施例中,处理单元1608包括:显示使能单元1610、检测单元1612和确定单元1614。
处理单元1608被配置为在存储器单元1616中存储多个图像序列。相应图像序列包括由相机拍摄的相应代表性图像、由相机在采集相应代表性图像之后采集的一个或多个图像以及由相机在采集相应代表性图像之前采集的一个或多个图像。处理单元1608还被配置为在存储器单元1616中存储与多个图像序列中的图像完全不同的多个图像。多个图像中的相应图像不是多个图像序列中的图像序列的部分。处理单元1608还被配置为在显示单元1602上(例如,利用显示使能单元1610)显示第一图像。处理单元1608还被配置为当在显示单元1602上显示第一图像时(例如,利用检测单元1612)检测第一输入。处理单元1608还被配置为响应于检测到第一输入:(例如,利用确定单元1614)根据第一图像是第一图像序列中的图像的确定,执行第一操作,该第一操作包括(例如,利用显示使能单元1610)在显示单元1602上显示第一图像序列中的在第一图像以外的图像中的至少一些图像;并且,(例如,利用确定单元1614)根据第一图像是与多个图像序列中的图像完全不同的多个图像中的图像的确定,执行涉及第一图像的与第一操作完全不同的第二操作。
如图17所示,电子设备1700包括:显示单元1702,其被配置为显示图像;触敏表面单元1704,其被配置为检测用户输入;一个或多个可选传感器单元1706,其被配置为检测与触敏表面单元1704的接触的强度;以及处理单元1708,其与显示单元1702、触敏表面单元1704以及一个或多个可选传感器单元1706耦合。在一些实施例中,处理单元1708包括:显示使能单元1710、检测单元1712、转变单元1714和呈现单元1716。
处理单元1708被配置为在显示单元1702上(例如,利用显示使能单元1710)显示代表性图像。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。处理单元1708还被配置为当在显示单元1702上使得能够显示代表性图像时(例如,利用检测单元1712)检测第一输入的第一部分。处理单元1708还被配置为响应于检测到第一输入的第一部分,(例如,利用转变单元1714)从显示代表性图像转变到显示图像序列中的相应先前图像。该相应先前图像由相机在采集代表性图像之前采集。处理单元1708还被配置为:响应于检测到第一输入的第一部分,在从显示代表性图像转变到显示相应先前图像之后,(例如,利用显示使能单元1710)使得能够以相应先前图像开始顺序显示对由相机在采集代表性图像之前采集的一个或多个图像中的至少一些图像和由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像。
如图18所示,电子设备1800包括:显示单元1802,其被配置为显示图像;触敏表面单元1804,其被配置为检测用户输入;一个或多个传感器单元1806,其被配置为检测与触敏表面单元1804的接触的强度;以及处理单元1808,其与显示单元1802、触敏表面单元1804以及一个或多个传感器单元1806耦合。在一些实施例中,处理单元1808包括:显示使能单元1810、检测单元1812和移动单元1814。
处理单元1808被配置为在显示单元1802上(例如,利用显示使能单元1810)显示代表性图像。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。处理单元1808还被配置为当在显示单元1802上使得能够显示代表性图像时(例如,利用检测单元1812)检测第一输入,其包括(例如,利用传感器单元1804)检测触敏表面单元1804上的接触的特征强度到大于第一强度阈值的第一强度的增加。处理单元1808还被配置为响应于检测到接触的特征强度的增加,(例如,利用移动单元1814)在第一方向上以至少部分基于第一强度确定的速率推进通过由相机在采集代表性图像之后采集的一个或多个图像。处理单元1808还被配置为在以至少部分基于第一强度确定的速率推进通过由相机在采集代表性图像之后采集的一个或多个图像之后,(例如,利用检测单元1812)检测接触的强度到小于第一强度的第二强度的减小。处理单元1808还被配置为响应于检测到接触的特征强度到第二强度的减小,根据第二强度高于第一强度阈值的确定,继续(例如,利用移动单元1814)在第一方向上以第二速率推进通过由相机在采集代表性图像之后采集的一个或多个图像。第二速率至少部分基于第二强度来确定,并且第二速率比第一速率更慢。处理单元1808还被配置为响应于检测到接触的特征强度到第二强度的减小:根据第二强度低于第一强度阈值的确定,(例如,利用移动单元1814)在与第一方向相反的第二方向上以至少部分基于第二强度确定的速率移动通过由相机在采集代表性图像之后采集的一个或多个图像。
如图19所示,电子设备1900包括:显示单元1902,其被配置为显示图像;触敏表面单元1904,其被配置为检测用户输入;一个或多个可选传感器单元1906,其被配置为检测与触敏表面单元1904的接触的强度;以及处理单元1908,其与显示单元1902、触敏表面单元1904以及一个或多个可选传感器单元1906耦合。在一些实施例中,处理单元1908包括:显示使能单元1910、检测单元1912、存储单元1914、移动单元1916;以及推进单元1918。
处理单元1908被配置为(例如,利用存储单元1914)存储多个图像序列。相应图像序列包括由相机拍摄的相应代表性图像以及由相机在采集相应代表性图像之前采集的一个或多个图像。处理单元1908还被配置为(例如,利用显示使能单元1910)使得能够在显示单元1902上的可移动第一区域中显示用于第一图像序列的第一代表性图像。处理单元1908还被配置为(例如,利用检测单元1912)检测触敏表面单元1904上的手势,该手势包括通过与在显示单元1902上的第一方向上的移动相对应的接触的移动。处理单元1908还被配置为响应于检测到触敏表面单元1904上的手势:(例如,利用移动单元1916)在显示单元1902上将第一区域在第一方向上移动;(例如,利用移动单元1916)在显示单元1902上将可移动第二区域在第一方向上移动;并且根据序列显示准则被满足的确定,当将第二区域在第一方向上移动时,(例如,利用显示使能单元1910)使得能够在第二区域中按时间顺序显示由相机在采集用于第二图像序列的第二代表性图像之前采集的用于第二图像序列的一个或多个图像中的至少一些图像。
图20A-20L图示了根据一些实施例的用于修改图像序列中的图像的示例性用户界面。这些附图中的用户界面被用于说明下面描述的过程,包括图9A-9G、10A-10M、11A-11I、12A-12B、24A-24E、25A-25C、26A-26D和27A-27E中的过程。尽管将参考与触摸屏显示器(其中触敏表面和显示器被组合)上的输入给出下面的示例,但是在一些实施例中,所述设备检测如图4B中所示出的与显示器450分离的触敏表面451上的输入。
图20A图示了示出靠近站台的列车的图像序列2002。图像序列包括代表性图像2002-3、由相机在采集代表性图像2002-3之前采集的图像2002-1和2002-2以及由相机在采集代表性图像2002-3之后采集的图像2002-4和2002-5。图像序列2002的时间顺序为:图像2002-1、图像2002-2、代表性图像2002-3、图像2002-4以及图像2002-5。
图20B图示了当设备100处于照片编辑用户界面中时设备100在显示器上显示代表性图像2002-3。照片编辑用户界面包括用于编辑代表性图像2002-3的可供件2004(例如,剪裁可供件2004-1、滤镜可供件2004-2、光照可供件2004-3)。在该示例中,假设用户已经选择了光照可供件2004-3并且已经修改了代表性图像2002-3的对比度(如图20B中示出的代表性图像2002-3与如图20A中示出的代表性图像2002-3相比较已经使其对比度增加)。
照片编辑用户界面还包括用于在第一编辑模式(例如,应用到全部编辑模式)与第二编辑模式(例如,单个图像编辑模式)之间进行切换的可供件2006(例如,切换开关)。在图20B中,切换开关2006被设置为第二编辑模式,使得当设备100检测到用户输入2008(例如,用于修改代表性图像的输入)时,设备100修改代表性图像2002-3而不修改由相机在采集代表性图像2002-3之后采集的一个或多个图像(例如,图像2002-4和2002-5),并且不修改由相机在采集代表性图像2002-3之前采集的一个或多个图像(例如,图像2002-1和2002-2)。
相反,在图20I中,切换开关2006被设置为第一编辑模式(例如,应用到全部模式),使得当设备100检测到应用用户的修改的用户输入2008时,设备100修改代表性图像2002-3、由相机在采集代表性图像2002-3之后采集的一个或多个图像(例如,图像2002-4和2002-5)以及由相机在采集代表性图像2002-3之前采集的一个或多个图像(例如,图像2002-1和2002-2)。
回到其中仅仅代表性图像2002-3被修改的示例中(例如,跟随图20B),图20C-20H图示了用于回放图像序列的各种实施例,其中仅仅代表性图像被修改。
具体地,如图20C-20D所示,在一些实施例中,在修改仅仅代表性图像2002-3之后,当显示代表性图像2002-3时,设备100接收为用于回放图像序列2002的请求的用户输入2010。如图20C所示,响应于用于回放图像序列2002的用户输入2010的第一部分,设备100利用在代表性图像2002-3之后采集的图像中的至少一些图像(例如,图像2002-4和图像2002-5)来替代对代表性图像2002-3的显示。如图20D所示,响应于检测到用于回放图像序列2002的第二输入2010的第二部分,设备100顺序显示由相机在采集代表性图像2002-3之前采集的一个或多个图像中的至少一些图像(例如,图像2002-1和图6F的图像2002-2)、经修改的代表性图像2002-3以及由相机在采集代表性图像2002-3之后采集的一个或多个图像中的至少一些图像(例如,图像2002-4和图像2002-5)。即,在一些实施例中,代表性图像2002-3以其经修改的形式被包含在回放中。
图20E-20F图示了另一示例,其中在修改仅仅代表性图像2002-3之后,当显示经修改的代表性图像2002-3时,设备100接收为用于回放图像序列2002的请求的用户输入2012。如图20E所示,响应于用于回放图像序列2002的用户输入2012的第一部分,设备100利用在代表性图像2002-3之后采集的图像中的至少一些图像(例如,图像2002-4和图像2002-5)来替代对代表性图像2002-3的显示。如图20E所示,响应于检测到用于回放图像序列2002的第二输入2010的第二部分,设备100顺序显示由相机在采集代表性图像2002-3之前采集的一个或多个图像中的至少一些图像(例如,图像2002-1和图6F的图像2002-2)、没有修改的代表性图像2002-3以及由相机在采集代表性图像2002-3之后采集的一个或多个图像中的至少一些图像(例如,图像2002-4和图像2002-5)。即,在一些实施例中,代表性图像2002-3出于回放的目的被恢复到其未修改的形式。
图20G-20H图示了另一示例,其中在修改仅仅代表性图像2002-3之后,当显示经修改的代表性图像2002-3时,设备100接收为用于回放图像序列2002的请求的用户输入2014。如图20G所示,响应于用于回放图像序列2002的用户输入2014的第一部分,设备100利用在代表性图像2002-3之后采集的图像中的至少一些图像(例如,图像2002-4和图像2002-5)来替代对代表性图像2002-3的显示。如图20H所示,响应于检测到用于回放图像序列2002的第二输入2010的第二部分,设备100顺序显示由相机在采集代表性图像2002-3之前采集的一个或多个图像中的至少一些图像(例如,图像2002-1和图6F的图像2002-2)和由相机在采集代表性图像2002-3之后采集的一个或多个图像中的至少一些图像(例如,图像2002-4和图像2002-5)。即,在一些实施例中,代表性图像2002-3一旦被修改就从回放中完全被省略。
如以上提到的,在图20I中,切换开关2006被设置为第一编辑模式(例如,应用到全部模式),使得当设备100检测到应用用户的修改的用户输入2008时,设备100修改代表性图像2002-3、由相机在采集代表性图像2002-3之后采集的一个或多个图像(例如,图像2002-4和2002-5)以及由相机在采集代表性图像2002-3之前采集的一个或多个图像(例如,图像2002-1和2002-2)。
图20J-20K图示了根据一些实施例的对其中图像序列中的所有图像已经被修改的图像序列的回放。当在修改代表性图像2002-3、由相机在采集代表性图像2002-3之后采集的一个或多个图像(例如,图像2002-4和2002-5)以及由相机在采集代表性图像2002-3之前采集的一个或多个图像(例如,图像2002-1和2002-2)之后显示经修改的代表性图像2002-3时,设备100接收为用于回放图像序列2002的请求的用户输入2016。如图20J所示,响应于用于回放图像序列2002的用户输入2016的第一部分,设备100利用经修改的在代表性图像2002-3之后采集的图像中的至少一些图像(例如,图像2002-4和图像2002-5)来替代对代表性图像2002-3的显示。如图20K所示,响应于检测到用于回放图像序列2002的第二输入2016的第二部分,设备100顺序显示由相机在采集代表性图像2002-3之前采集的一个或多个图像中的至少一些图像(例如,图像2002-1和图6F的图像2002-2)和由相机在采集代表性图像2002-3之后采集的一个或多个图像中的至少一些图像(例如,图像2002-4和图像2002-5)。即,在一些实施例中,当图像序列中的所有图像被修改时,设备100利用经修改的所有图像来播放图像序列。
在一些实施例中,不是在上述示例中的任何中利用在代表性图像2002-3之后采集的图像中的至少一些图像(例如,图像2002-4和图像2002-5)来替代对代表性图像2002-3的显示,设备100利用对在代表性图像2002-3之前采集的相应图像的显示来替代对代表性图像2002-3的显示(例如,省略图20C、图20E、图20G和图20J中示出的回放)。更一般地,当仅仅代表性图像在图像序列中被修改时,在本文档中其他地方(图6A-6FF、图7A-7CC、图8A-8L、方法600、方法700和/或方法800)描述的用于回放图像序列的实施例中的任何可选地在经修改的图像被省略、被恢复到其未修改的形式或者在回放期间被包含作为经修改的情况下来执行。类似地,当图像序列中的所有图像被修改时,在本文档中其他地方(图6A-6FF、图7A-7CC、图8A-8L、方法600、方法700和/或方法800)描述的用于回放图像序列的实施例中的任何可选地在经修改的图像序列的情况下来执行。
在一些情况下,修改代表性图像而不修改额外图像将导致当增强型照片被回放时的不连续性。例如,如图20L所示,在一些实施例中,当切换开关2006被设置为“关”时,设备100检测到用于剪裁(例如,或者旋转)代表性图像2002-3的用户输入2022。然而,当代表性图像2002-3被剪裁/旋转时,如以上参考图20C-20H所描述的回放增强型照片将导致当代表性图像2002-3被显示时的“跳跃”。因此,在一些实施例中,当对代表性图像2002-3进行某些修改(例如,剪裁和/或旋转)而不修改由相机在采集代表性图像2002-3之后采集的一个或多个图像并且不修改由相机在采集代表性图像2002-3之前采集的一个或多个图像时,设备100自动关闭对额外图像的回放,删除额外图像,或者使得经修改的代表性图像被保存到新文件作为静止图像。在一些实施例中,设备100向用户提供警告2018。在一些实施例中,设备100向用户提供选项2020。例如,设备100向用户提供:用于将经编辑的图像保存为新的静止图像的选项2020-1;用于删除图像序列中的额外图像(例如,增强型照片)的选项2020-2;以及用于进入应用到全部编辑模式的选项2020-3;以及用于取消的选项2020-4。
图21A-21J图示了根据一些实施例的用于将来自图像序列的图像发送到第二电子设备的示例性用户界面。这些附图中的用户界面被用于说明下面描述的过程,包括图9A-9G、10A-10M、11A-11I、12A-12B、24A-24E、25A-25C、26A-26D和27A-27E中的过程。尽管将参考与触摸屏显示器(其中触敏表面和显示器被组合)上的输入给出下面的示例,但是在一些实施例中,设备100检测如图4B中所示出的与显示器450分离的触敏表面451上的输入。
图21A-21J图示了两种示例性情形,其中当在显示器上显示来自图像序列的代表性图像时,设备100检测到与用于发送来自图像序列的代表性图像的请求或者用于从图像序列中选择用于发送的代表性图像的请求相对应的输入。当第二电子设备被配置为将图像序列作为一组与之交互(例如,第二电子设备被配置为执行图6A-6FF、图7A-7CC和/或图8A-8L中描述的交互)时,设备100显示用于将图像序列的至少部分发送到第二电子设备的第一选项集合(例如,如图21C所示)。相反,当第二电子设备未被配置为将图像序列作为一组与之交互时,设备100显示用于将图像序列的至少部分发送到第二电子设备的第二选项集合(例如,如图21D所示)。
图21A-21D图示了如下情形,其中用于发送来自图像序列的代表性图像的选项响应于用于选择用于发送的代表性图像的用户请求来提供。图21A图示了设备100上的对话(例如,在消息收发应用/消息收发用户界面2102中的对话)。对话是关于第二电子设备的用户(Stephanie)的。在一些实施例中,当设备100的用户请求选择用于发送的代表性图像时,代表性图像的目的地(例如,第二电子设备)对于设备100是已知的,因为请求用于发送的代表性图像的过程源自于与第二设备的对话。
为此,如图21A所示,设备100检测选择用于将媒体添加到对话(例如,添加静止照片、增强型照片、视频或任何其他类型的媒体)的可供件2106的用户输入2104(例如,轻叩手势)。
图20B图示了响应于用户输入2104(图21A),设备提供用户界面2108,用户界面2108向用户提供用于选择用于发送到第二电子设备的用户的照片的选项。用户界面2108包括具有可选择图像2110(例如,图像2110-a到图像2110-c)的区域。在一些实施例中,可选择图像2110是最近照片的表示(例如,最近的三个或五个照片)。用户界面2108包括用于从用户的照片库中选择照片的选项2112、用于(例如,利用集成到设备100中的相机)拍摄照片或视频的选项2114以及用于取消添加媒体的选项2116。
在该示例中,设备100检测到用户输入2116,用户输入2116为用于选择用于发送到第二设备的用户的图像2110-b的请求。出于解释的目的,在该示例中,图像2110-b是来自图像序列的代表性图像(例如,来自增强型照片的代表性图像),图像序列包括在代表性图像2110-b之前采集的图像和/或在代表性图像2110-b之后采集的图像。
如图21C所示,因为当Stephanie的设备(第二电子设备)被配置为将图像序列作为一组与之交互时,设备100显示用于将图像序列的至少部分发送到第二电子设备的第一选项集合2118。在一些实施例中,第一选项集合2118包括:用于发送整个图像序列(例如,发送增强型照片)的选项2118-a;用于发送代表性图像而不发送在代表性图像2110-b之前采集的图像并且不发送在代表性图像2110-b之后采集的图像(例如,仅仅将代表性图像2110-b作为静止图像发送)的选项2118-b;用于将图像序列的至少部分转换为动画演示的图像格式(例如,GIF格式)的选项2118-c;用于将图像序列的至少部分转换为视频格式(例如,MPEG格式)的选项2118-d;以及用于取消的选项2118-e。设备100还显示图像2110-b已经被选择用于发送到第二电子设备的指示2120。
相反,图21D图示了用于将图像序列的至少部分发送到第二电子设备的第二选项集合2122。第二选项集合2122被显示,因为在该示例中,第二电子设备(例如,Robert的设备)未被配置为将图像序列作为一组与之交互。到达第二选项集合2122的过程与参考图21A-21C描述的到达第一选项集合2118的过程类似。即,在一些实施例中,第二选项集合2122在设备100的用户在与Robert的对话中时选择用于将媒体添加到对话的可供件(例如,图21A的可供件2106)接着从图像序列中选择用于发送到Robert的设备的代表性图像(例如,利用与输入2116类似的用户输入选择图像2110-b)之后被显示。
第二选项集合2122包括:用于发送代表性图像而不发送在代表性图像2110-b之前采集的图像并且不发送在代表性图像2110-b之后采集的图像(例如,仅仅将代表性图像2110-b作为静止图像发送)的选项2118-a;用于将图像序列的至少部分转换为动画演示的图像格式(例如,GIF格式)的选项2122-b;用于将图像序列的至少部分转换为视频格式(例如,MPEG格式)的选项2122-c;以及用于取消的选项2122-d。设备100还显示图像2110-b已经被选择用于发送到第二电子设备的指示2120。在一些实施例中,第二选项集合2122不包括用于发送整个图像序列(例如,发送增强型照片)的选项,因为Robert的设备未被配置为将图像序列作为一组与之交互。
图21E-21J图示了如下情形,其中用于发送来自图像序列的代表性图像的选项响应于用于发送代表性图像的用户请求来提供。图21E图示了设备100上的相机胶卷用户界面2124。相机胶卷用户界面2124显示图像2126和其他图像2129(例如,图像2129-1到图像2129-8),其可选地为照片、增强型照片或影片的表示。在该示例中,假设设备100的用户尚未从对话内导航到相机胶卷用户界面2124(例如,已经从主屏幕导航到用户界面2124)。因此,在图21E-21J中示出的示例中,当用户(例如,经由图21E的用户输入2128)选择图像2126或者(例如,经由图21F的用户输入2132)请求共享图像2126时,代表性图像的目的地(例如,第二电子设备)对于设备100是未知的。因此,取决于接收第二电子设备是否被配置为将图像序列作为一组与之交互,设备100可能还未显示不同的第一选项或第二选项。相反,如下面所描述的,一旦获知目的地,当用户请求发送图像时第一选项或第二选项被显示。
为此,图21E图示了从相机胶卷用户界面2114内选择图像2126的用户输入2128。在该示例中,假设图像2126为来自图像序列的代表性图像。
如图21F所示,响应于用户输入2128,设备100将图像2126显示在图像查看用户界面2130中。图21F还图示了(例如,通过选择共享可供件2134)请求共享图像2126的用户输入2132。
如图21G所示,响应于用户输入2132,设备100显示共享用户界面2138。共享用户界面2138响应于请求共享图像2126而被显示,图像2126在共享用户界面2138的示出在与图像2126接近的时间上采集的几个图像(例如,三个图像、五个图像、等等)的区域2140中被预先选择。共享用户界面还包括用于选择通过其共享图像2126的协议的基于协议的共享选项,包括消息协议共享选项2142-a、电子邮件协议共享选项2142-b以及社交媒体协议共享选项2142-c。在图21G中,用户(经由用户输入2143)选择消息协议共享选项2142-a,其引出图21H中示出的对话用户界面2144。
在该示例中,当对话用户界面2144(图21H)最初被显示时,目的地字段2146是空的,因为设备100的用户还没有指定图像2126的目的地(例如,设备100引出一消息,空目的地字段2146和图像2126被自动插入到该消息的主体2148中)。因此,在该示例中,假设设备100的用户已经在图21H中的对话用户界面2144中手动输入“Stephanie Levin”作为目的地。用户还已经键入了短消息2150,“来看看这辆列车”。
如还在图21H中示出的,用户(经由用户输入2152)选择发送按钮2154,从而请求发送图像2126以及消息的剩余部分。
如图21I所示,响应于用户输入2152,因为当Stephanie Levin的设备(第二电子设备)被配置为将图像序列作为一组与之交互时,设备100显示用于将图像序列的至少部分发送到第二电子设备的第一选项集合2118(以上参考图21C所描述的)。
相反,图21J图示了用于将图像序列的至少部分发送到第二电子设备的第二选项集合2122。第二选项集合2122被显示,因为在该示例中,第二电子设备(例如,Robert Yu的设备)未被配置为将图像序列作为一组与之交互。到达第二选项集合2122的过程与参考图21E-21H描述的到达第一选项集合2118的过程类似。即,在一些实施例中,当设备100的用户输入Robert Yu作为目的地2146来代替图21H中的Stephanie Levin并且之后按下发送时,第二选项集合2122被显示。
图22A-20D图示了根据一些实施例的用于使用场景识别来采集照片(例如,增强型照片或静止照片)的示例性用户界面。这些附图中的用户界面被用于说明下面描述的过程,包括图9A-9G、10A-10M、11A-11I、12A-12B、24A-24E、25A-25C、26A-26D和27A-27E中的过程。尽管将参考与触摸屏显示器(其中触敏表面和显示器被组合)上的输入给出下面的示例,但是在一些实施例中,设备100检测如图4B中所示出的与显示器450分离的触敏表面451上的输入。
一些场景更有益于被捕获为图像序列(例如,增强型照片)。例如,人们常常使用相同的便携式多功能设备来捕获重要的片刻(例如,他们的孩子在沙滩上微笑的图片)并且捕获更平凡的图像,例如出于归档目的而拍摄收据的图片。根据一些实施例,图22A-22D图示了经由场景识别自动确定是要捕获图像序列(例如,在微笑的孩子的情况下)还是静止图像(例如,在收据的情况下)的用于设备的用户界面。例如,当场景满足动作捕获准则(例如,涉及场景中的活动的准则)时,该设备响应于对快门按钮的激活而保留图像序列,包括在对快门按钮的激活之前采集的图像和在对快门按钮的激活之后采集的图像。相反,当场景不满足动作捕获准则时,该设备保留单个图像(例如,类似于在传统相机中响应于对快门的激活采集的单个图像)。
在图22A中,设备100处于媒体采集模式(例如,照片采集模式或自动静止/增强型照片采集模式)中。当设备100处于媒体采集模式中时,设备100显示包括由相机(例如,相机被集成到设备100中)检测到的场景的实时预览2210的图像捕获用户界面2202。图像捕获用户界面2202还包括用于导航到相机胶卷的可供件2204(例如,可供件2204显示由相机采集到的最后照片/视频的缩影表示);虚拟快门按钮2206;以及用于将滤镜应用到场景的实时预览(深褐色滤镜)的可供件2208。
当设备100处于媒体采集模式中时,设备100对场景执行场景识别。例如,在一些实施例中,场景识别包括检测文本、检测移动、检测人的脸、和/或检测设备100的移动(例如,当用户计划要跟踪目标时)。在图22A中,设备100使用场景识别来识别场景几乎是文本(例如,场景是收据)。在一些实施例中,设备100通过识别场景包括超过阈值量的文本来识别场景几乎是文本。在一些实施例中,当设备100识别到场景几乎是文本时,动作捕获准则未被满足。例如,由于用户不太可能想要响应于对快门按钮2206的激活而捕获位于桌子上的收据周围的片刻,所以设备100保留单个图像2214(在图像查看模式中图22B中所示)。
相反,图22C描述了在媒体采集模式中在实时预览2210中示出的列车靠近站台的场景。具体地,图22C描绘了场景在五个不同时间(按时间顺序:时间2210-1;时间2210-2;时间2210-3;时间2210-4;以及时间2210-5)处的实时预览2210。
当实时预览2210被显示在显示器上时,设备100执行场景检测。在该示例中,当该设备检测到阈值量的移动时动作捕获准则被满足。所以,因为列车在实时预览2210中移动,所以响应于在时间2210-3处对快门按钮2206的激活,设备100保留如图22D所示的图像序列2218(例如,增强型照片)。
如图22D所示,图像序列2218包括:在对快门按钮2206的激活之前采集的多个图像(例如,图像2218-1和2218-2);在一些实施例中在与在对快门按钮2206的激活接近的时间上采集的代表性图像2218-3(例如,图像2218-3类似于在传统相机中响应于对快门的激活采集的单个图像);以及由相机在采集代表性图像2218-3之后采集的多个图像(例如,图像2218-4和2218-5)。即,因为移动的列车超过阈值量的移动,设备100捕获增强型照片。增强型照片可以之后根据例如参考图6A-6FF、图7A-7CC和/或图8A-8L描述的实施例来回放。
图23A-23E图示了根据一些实施例的用于剪辑图像序列(例如,增强型照片)的示例性用户界面。这些附图中的用户界面被用于说明下面描述的过程,包括图9A-9G、10A-10M、11A-11I、12A-12B、24A-24E、25A-25C、26A-26D和27A-27E中的过程。尽管将参考与触摸屏显示器(其中触敏表面和显示器被组合)上的输入给出下面的示例,但是在一些实施例中,设备100检测如图4B中所示出的与显示器450分离的触敏表面451上的输入。
图23A图示了当设备100处于照片编辑用户界面中时设备100在显示器上显示代表性图像2302。代表性图像2302表示图像序列(例如,表示增强型照片)。在一些实施例中,设备100显示来自图像序列的当前所选择的图像,其未必是代表性图像。照片编辑用户界面包括用于编辑代表性图像2302的可供件2004(例如,剪裁可供件2004-1、滤镜可供件2004-2、光照可供件2004-3)。照片编辑用户界面还包括可选择图标2304。在一些实施例中,当照片编辑用户界面中显示的图像是来自图像序列的代表性图像时,可选择图标2304被动画演示、以彩色显示和/或被填充。在一些实施例中,当照片编辑用户界面中显示的图像是静止图像时,可选择图标2304以黑白显示、不被动画演示和/或不被填充。因此,在一些实施例中,可选择图标2304向用户指示是否他/她正在编辑增强型照片。在一些实施例中,可选择图标2304仅仅当来自图像序列的代表性图像被显示在照片编辑用户界面中时才是可选择的。
可选择图标2304还包括“完成”可供件2301,其将用户的修改应用到照片。
在图23A中,设备100接收可选择图标2304的用户输入2306。
在图23B中,响应于用户输入2306,设备100显示可供件条2308。可供件条2308包括:用于打开图像序列的动画回放的可供件2310-1;用于当保留图像序列时关闭图像序列的动画回放的可供件2310-2;用于剪辑图像序列的可供件2310-3;以及用于删除图像序列中的除了代表性图像2302之外的其他图像的可供件2310-4。在一些实施例中,在任何给定时间处可供件2310-1或可供件2310-2中的仅仅一个是可选择的,取决于动画回放当前是被打开还是被关闭(例如,如果回放当前是打开的时,“打开”可供件2310-2被“变灰”)。照片编辑用户界面还包括用于在第一编辑模式(例如,应用到全部编辑模式)与第二编辑模式(例如,单个图像编辑模式)之间进行切换的可供件2006(例如,切换开关),如参考图20A-20L所描述的。
在图23B中,设备100接收选择用于剪辑图像序列的可供件2310-3的用户输入2312。
在图23C中,响应于用户输入2312,设备100显示用于将图像序列剪辑为图像序列的子集(例如,剪辑为比图像序列中的所有图像少的子集)的用户界面2314。用户界面2314包括包含图像序列中的图像的表示2318的区域2316(例如,条带)(为了视觉清楚,仅仅在图中标记了图像的一个表示2318)。在一些实施例中,图像的表示2318是图像序列中的图像的缩略图。在一些实施例中,图像的表示按时间顺序来排列,使得在区域2316中左边的那些表示2318表示比在区域2316中右边的那些表示2318更早地采集的图像。
用户界面2314包括与区域2316同时地被显示的第二区域2322。代表性图像或当前选择的图像被显示在第二区域2322中。
区域2316包括界定图像序列的子集中的开始图像的开始柄部2320-a。区域2316包括界定图像序列的子集中的结束图像的结束柄部2320-b。开始柄部2320-a和结束柄部2320-b被定位在区域2316中的由设备(例如,使用场景检测)自动选择的位置处。例如,设备100使用场景检测(例如,通过确定何时面部朝向相机或者确定何时图像是最不模糊的)来确定在其期间最好的动作出现的时间段。设备100将开始柄部2320-a设置到区域2316中的表示在其期间最好的动作出现的时间段的开始的位置并将结束柄部2320-b设置到区域2316中的表示在其期间最好的动作出现的时间段的结束的位置。
图23C还图示了在将开始柄部2320-a与结束柄部2320-b之间的图像的表示2318与区域2316中的其他表示2318被视觉区分(例如,通过稍微使其他表示变灰)。
用户界面2314还包括重置可供件2324。在图23C中,设备100接收选择重置可供件2324的用户输入2326。
在图23D中,响应于选择重置可供件2324的用户输入2326,设备100将开始柄部2320-a移动到与未剪辑的图像序列中的初始图像相对应的位置并且将结束柄部2320-b移动到未剪辑的图像序列中的最终图像。即,重置可供件2324将剪辑柄部重置为与在用户输入剪辑用户界面2314之前的图像序列相对应。
如图23D所示,在一些实施例中,用户界面2314显示未被包括在原始(例如,未剪辑的)图像序列中的在原始图像序列中的初始图像之前获得的图像的表示2328和/或未被包括在原始(例如,未剪辑的)图像序列中的在原始图像序列中的最终图像之后获得的图像的表示2330。
还如图23D所示,在一些实施例中,当用户选择重置可供件2324时,用户界面2314显示(例如,在重置可供件2324的地方中)自动可供件2332,其允许用户切换回到基于场景检测自动选择的用于开始柄部2320-a和结束柄部2320-b的位置。
还如图23D-23E所示,用户可以手动调节开始柄部2320-a和结束柄部2320-b的位置。在图23D中,设备100接收用户输入2324(例如,在开始柄部2320-a上的拖拽手势)。图23E图示了区域2316中的开始柄部2320-a的位置已经根据拖拽手势2334移动。
在一些实施例中,当处于剪辑用户界面2314中时当用户选择将用户的剪辑应用到图像序列的“完成”可供件2301时,设备100删除(或标记以进行删除)未被包括在图像的子集中的图像(例如,其表示2318未被包括在开始柄部2320-a与结束柄部2320-b之间),或者禁用对未被包括在图像的子集中的图像的回放。例如,当经剪辑的图像序列根据参考图6A-6FF、图7A-7CC和/或8A-8L描述的一些实施例来回放时,未被包括在图像的子集中的图像不被回放。在一些实施例中,当设备100禁用对未被包括在图像的子集中的图像的回放时,设备100保留未被包括在图像的子集中的图像使得用户可以在稍后时间(例如,在剪辑用户界面2314中)还原整个图像序列或者整个图像序列的任何部分。
图24A-24E图示了根据一些实施例的修改图像序列中的图像的方法2400的流程图。在具有显示器和触敏表面的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行方法2400。根据一些实施例,该设备包括用于检测与触敏表面的接触的强度的一个或多个传感器。在一些实施例中,所述显示器是触摸屏显示器并且所述触敏表面是在所述显示器上或与所述显示器集成。在一些实施例中,所述显示器与所述触敏表面分离。方法2400中的一些操作可选地被组合和/或一些操作的顺序被可选地改变。
方法2400提供用于修改增强型照片的直观方式。具体地,当用户正在修改(例如,剪裁、使黑白化、改变平衡和/或对比度)用于增强型照片的代表性图像时,在一些实施例中,方法2400允许用户(例如,利用切换开关)指定修改是否应当被应用到仅仅代表性图像或者被应用到增强型照片中的所有图像。当修改被应用到仅仅代表性图像时,方法2400根据各种实施例来提供回放方案。例如,在各种实施例中,包括具有经修改的代表性图像的图像序列的增强型照片在代表性图像被修改、未被修改或被省略的情况下来回放。当修改被应用到整个图像序列时,增强型照片回放经修改的图像序列。
该设备在显示器上显示(2402)代表性图像(例如,当该设备处于图像呈现模式中时)。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。在一些实施例中,拍摄图像序列的相机是电子设备的部分。在一些实施例中,图像序列由不为电子设备的部分的相机拍摄(例如,图像序列在利用另一设备上的相机被拍摄之后被传输到电子设备)。在一些实施例中,图像序列响应于检测到在第一时间处对快门按钮的激活而获得,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。在一些实施例中,代表性图像与由相机采集的代表性图像相对应,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。
当在显示器上显示代表性图像时,该设备检测(2404)用于修改代表性图像的输入(例如,用于剪裁、滤镜处理、调节曝光率、调节色彩、转换为黑白、等等的输入)。例如,图20B的输入2008是用于修改代表性图像2002-3的输入。
响应于检测到用于修改代表性图像的输入:根据该设备处于第一编辑模式中的确定(例如,诸如图20I的切换开关2006的可供件被设置为将编辑应用到相应图像序列中的所有图像),该设备修改(2406)代表性图像、由相机在采集代表性图像之后采集的一个或多个图像以及由相机在采集代表性图像之前采集的一个或多个图像;并且,根据该设备处于与第一编辑模式完全不同的第二编辑模式中的确定(例如,诸如图20B的切换开关2006的可供件被设置为将编辑仅仅应用到相应图像序列中的代表性图像),该设备修改代表性图像,而不修改由相机在采集代表性图像之后采集的一个或多个图像,并且不修改由相机在采集代表性图像之前采集的一个或多个图像。
在一些实施例中,设备在照片编辑用户界面中提供用于在第一编辑模式与第二编辑模式之间切换的可供件(例如,图20B和图20I的切换开关2006是照片编辑用户界面的组件)。在一些实施例中,照片编辑用户界面包括用于打开/关闭对增强型照片的回放的可供件、用于删除增强型照片中的额外图像的可供件、和/或用于剪辑额外照片的集合(例如,将静止图像的选择修改为被包含在增强型照片中)的可供件,如参考图23A-23E和方法2700所描述的。
在一些实施例中,响应于检测到用于修改代表性图像的输入,该设备向用户呈现将修改应用到仅仅代表性图像或者应用到代表性图像以及由相机在采集代表性图像之后采集的一个或多个图像和由相机在采集代表性图像之前采集的一个或多个图像的选项。
在一些情况下,修改代表性图像而不修改额外图像将导致当增强型照片被回放时的不连续性。例如,当代表性图像相对于额外图像被剪裁或被旋转时,当代表性图像被显示时回放增强型照片将导致“跳跃”。因此,在一些实施例中,当对代表性图像进行某些修改(例如,剪裁和/或旋转)而不修改由相机在采集代表性图像之后采集的一个或多个图像并且不修改由相机在采集代表性图像之前采集的一个或多个图像时,该设备自动关闭对额外图像的回放,删除额外图像,或者使得经修改的代表性图像被保存到新文件作为静止图像。在一些实施例中,该设备警告用户修改将导致经修改的代表性图像变成静止图像并向用户提供继续修改或取消修改的选项(例如,图20L的警告2018)。
在一些实施例中,在修改代表性图像而不修改由相机在采集相应代表性图像之后采集的一个或多个图像并且不修改由相机在采集相应代表性图像之前采集的一个或多个图像之后:该设备在显示器上显示(2408)经修改的代表性图像。当在显示器上显示经修改的代表性图像时,该设备检测第二输入的第一部分。响应于检测到第二输入的第一部分,该设备利用对由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像的顺序显示来替代对经修改的代表性图像的显示。因此,在一些实施例中,响应于检测到第二输入的第一部分,由相机在采集代表性图像之后采集的一个或多个(未修改的)图像被顺序显示(例如,如图20E所示)。因此,在一些实施例中,该设备显示在经修改的代表性图像与由相机在采集代表性图像之后采集的一个或多个(未修改的)图像之间的交叉淡变动画。
在检测到第二输入的第一部分之后,该设备检测第二输入的第二部分(例如,继续检测手指手势中的接触和/或强度)。响应于检测到第二输入的第二部分,该设备顺序显示由相机在采集代表性图像之前采集的一个或多个图像中的至少一些图像、没有修改的代表性图像以及由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像(例如,如图20F所示)。
因此,在一些实施例中,响应于检测到第二输入的第二部分,从整个(未修改的)图像序列的初始图像到最终图像播放该序列。例如,代表性图像通过将其改变为黑白图像被修改,而该序列中的其他序列保持为彩色图像。当黑白代表性图像被显示时,输入(例如,按下并保持手势或深压手势)的第一部分被检测到。作为响应,对黑白代表性图像的显示通过对图像序列中的由相机在采集代表性图像之后采集的一个或多个(未修改的)彩色图像的顺序显示来替代。响应于检测到第二输入的第二部分,从整个图像序列的初始图像到最终图像播放该序列,其中所有图像以彩色显示。
在一些实施例中,在修改代表性图像而不修改由相机在采集相应代表性图像之后采集的一个或多个图像并且不修改由相机在采集相应代表性图像之前采集的一个或多个图像之后:该设备在显示器上显示(2410)经修改的代表性图像。当在显示器上显示经修改的代表性图像时,该设备检测第二输入。响应于检测到第二输入,该设备顺序显示由相机在采集代表性图像之前采集的一个或多个图像中的至少一些图像、没有修改的代表性图像以及由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像。
因此,在一些实施例中,响应于检测到第二输入,该设备在图像中没有一个被修改的情况下从在采集代表性图像之前采集的图像开始(例如,以图像序列中的初始图像开始)回放增强型照片而非通过显示由相机在代表性图像之后采集的图像开始回放。
在一些实施例中,在修改代表性图像而不修改由相机在采集相应代表性图像之后采集的一个或多个图像并且不修改由相机在采集相应代表性图像之前采集的一个或多个图像之后:该设备在显示器上显示(2412)经修改的代表性图像。当在显示器上显示经修改的代表性图像时,该设备检测第二输入的第一部分。响应于检测到第二输入的第一部分,该设备利用对由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像的顺序显示来替代对经修改的代表性图像的显示。因此,在一些实施例中,响应于检测到第二输入的第一部分,由相机在采集代表性图像之后采集的一个或多个(未修改的)图像被顺序显示。因此,在一些实施例中,该设备显示在经修改的代表性图像与由相机在采集代表性图像之后采集的一个或多个(未修改的)图像之间的交叉淡变动画(例如,如图20C所示)。
在检测到第二输入的第一部分之后,该设备检测第二输入的第二部分(例如,继续检测手指手势中的接触和/或强度)。响应于检测到第二输入的第二部分,该设备顺序显示由相机在采集代表性图像之前采集的一个或多个图像中的至少一些图像、经修改的代表性图像以及由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像(例如,如图20D所示)。
因此,在一些实施例中,响应于检测到第二输入的第二部分,从整个图像序列的初始图像到最终图像播放该序列,其中仅仅代表性图像被修改。例如,代表性图像通过将其改变为黑白图像被修改,而该序列中的其他序列保持为彩色图像。当黑白代表性图像被显示时,输入(例如,按下并保持手势或深压手势)的第一部分被检测到。作为响应,对黑白代表性图像的显示通过对图像序列中的由相机在采集代表性图像之后采集的一个或多个(未修改的)彩色图像的顺序显示来替代。响应于检测到第二输入的第二部分,从整个图像序列的初始图像到最终图像播放该序列,其中除了代表性图像(其以黑白显示)的所有图像以彩色显示。
在一些实施例中,在修改代表性图像而不修改由相机在采集相应代表性图像之后采集的一个或多个图像并且不修改由相机在采集相应代表性图像之前采集的一个或多个图像之后:该设备在显示器上显示(2414)经修改的代表性图像。当在显示器上显示经修改的代表性图像时,该设备检测第二输入。响应于检测到第二输入,该设备顺序显示由相机在采集代表性图像之前采集的一个或多个图像中的至少一些图像、经修改的代表性图像以及由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像。
因此,在一些实施例中,响应于检测到第二输入,该设备在仅仅代表性图像被修改的情况下从在采集代表性图像之前采集的图像开始(例如,以图像序列中的初始图像开始)回放增强型照片而非通过显示由相机在代表性图像之后采集的图像开始回放。
在一些实施例中,在修改代表性图像而不修改由相机在采集相应代表性图像之后采集的一个或多个图像并且不修改由相机在采集相应代表性图像之前采集的一个或多个图像之后:该设备在显示器上显示(2416)经修改的代表性图像。当在显示器上显示经修改的代表性图像时,该设备检测第二输入的第一部分。响应于检测到第二输入的第一部分,该设备利用对由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像的顺序显示来替代对经修改的代表性图像的显示。因此,在一些实施例中,响应于检测到第二输入的第一部分,由相机在采集代表性图像之后采集的一个或多个(未修改的)图像被顺序显示。因此,在一些实施例中,该设备显示在经修改的代表性图像与由相机在采集代表性图像之后采集的一个或多个(未修改的)图像之间的交叉淡变动画(例如,如图20G所示)。
在检测到第二输入的第一部分之后,该设备检测第二输入的第二部分(例如,继续检测手指手势中的接触和/或强度)。响应于检测到第二输入的第二部分,该设备顺序显示由相机在采集代表性图像之前采集的一个或多个图像中的至少一些图像和由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像(例如,如图20H所示)。
因此,在一些实施例中,响应于检测到第二输入的第二部分,从整个图像序列的初始图像到最终图像播放该序列,除了代表性图像未被显示(例如,经修改的代表性图像从增强型照片的第一完整回放中被省略)。在一些实施例中,只要输入被维持(例如,按下并保持手势和/或具有高于预定义阈值的强度的深压),该设备就继续循环通过图像序列。
在一些实施例中,在修改代表性图像而不修改由相机在采集相应代表性图像之后采集的一个或多个图像并且不修改由相机在采集相应代表性图像之前采集的一个或多个图像之后:该设备在显示器上显示(2418)经修改的代表性图像。当在显示器上显示经修改的代表性图像时,该设备检测第二输入。响应于检测到第二输入,该设备顺序显示由相机在采集代表性图像之前采集的一个或多个图像中的至少一些图像和由相机在采集代表性图像之后采集的一个或多个图像中的至少一些图像。
因此,在一些实施例中,响应于检测到第二输入,该设备在代表性图像被省略并且剩余图像未修改的情况下从在采集代表性图像之前采集的图像开始(例如,以图像序列中的初始图像开始)回放增强型照片而非通过显示由相机在代表性图像之后采集的图像开始回放。
在一些实施例中,在修改代表性图像、由相机在采集相应代表性图像之后采集的一个或多个图像以及由相机在采集相应代表性图像之前采集的一个或多个图像之后:该设备在显示器上显示(2420)经修改的代表性图像。当在显示器上显示经修改的代表性图像时,该设备检测第二输入的第一部分。响应于检测到第二输入的第一部分,该设备利用对由相机在采集代表性图像之后采集的经修改的一个或多个图像中的至少一些图像的顺序显示来替代对经修改的代表性图像的显示。因此,在一些实施例中,响应于检测到第二输入的第一部分,由相机在采集代表性图像之后采集的经修改的一个或多个图像被顺序显示(例如,如图20J所示)。
在检测到第二输入的第一部分之后,该设备检测第二输入的第二部分(例如,继续检测手指手势中的接触和/或强度)。响应于检测到第二输入的第二部分,该设备顺序显示由相机在采集代表性图像之前采集的经修改的一个或多个图像中的至少一些图像、经修改的代表性图像以及由相机在采集代表性图像之后采集的经修改的一个或多个图像中的至少一些图像(例如,如图20K所示)。
因此,在一些实施例中,响应于检测到第二输入的第二部分,从整个经修改的图像序列的初始图像到最终图像播放该序列。例如,该序列中的图像通过将它们从彩色改变为黑白图像而被修改。当黑白代表性图像被显示时,输入(例如,按下并保持手势或深压手势)的第一部分被检测到。作为响应,对黑白代表性图像的显示通过对图像序列中的由相机在采集代表性图像之后采集的一个或多个黑白图像的顺序显示来替代。响应于检测到第二输入的第二部分,从整个图像序列的初始图像到最终图像播放该序列,其中所有图像以黑白显示。
在一些实施例中,在修改代表性图像、由相机在采集相应代表性图像之后采集的一个或多个图像以及由相机在采集相应代表性图像之前采集的一个或多个图像之后:该设备在显示器上显示(2422)经修改的代表性图像。当在显示器上显示经修改的代表性图像时,该设备检测第二输入。响应于检测到第二输入,该设备顺序显示由相机在采集代表性图像之前采集的经修改的一个或多个图像中的至少一些图像、经修改的代表性图像以及由相机在采集代表性图像之后采集的经修改的一个或多个图像中的至少一些图像。
因此,在一些实施例中,响应于检测到第二输入,该设备在所有图像被修改的情况下从在采集代表性图像之前采集的图像开始(例如,以图像序列中的初始图像开始)回放增强型照片而非通过显示由相机在代表性图像之后采集的图像开始回放。
在一些实施例中,该设备检测(2424)与删除由相机在采集相应代表性图像之前采集的一个或多个图像以及由相机在采集相应代表性图像之后采集的一个或多个图像的请求相对应的第二输入。响应于检测到第二输入,该设备删除(或标记以进行删除)由相机在采集代表性图像之前采集的一个或多个图像和由相机在采集代表性图像之后采集的一个或多个图像(例如,在没有第二输入之外的额外用户输入的情况下,删除增强型照片中的除了代表性图像之外的所有额外图像)。
应当理解,图24A-24E中的操作已经被描述的特定顺序仅仅是示例性的并且不旨在指示所描述的顺序是操作能够被执行的唯一顺序。本领域普通技术人员将意识到用于对本文中描述的操作进行重新排序的各种方式。在一些实施方式中,本文中描述的一个或多个操作可以被省略。例如,在一些实施例中,操作2408和2410被省略。额外地,应当指出,本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、1100、11000、1200、2500、2600和2700)描述的其他过程的细节也可以类似的方式适用于以上参考图24A-24E描述的方法2400。例如,以上关于方法2400描述的接触、手势、用户界面对象、强度阈值、动画和图像序列可选地具有本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、1100、11000、1200、2500、2600和2700)描述的接触、手势、用户界面对象、强度阈值、动画和图像序列的特征中的一个或多个。为简便起见,这里不再重复这些细节。
图25A-25C图示了根据一些实施例的将来自图像序列的图像发送到第二电子设备的方法2500的流程图。在具有显示器和可选地触敏表面的第一电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行方法2500。根据一些实施例,该设备包括用于检测与触敏表面的接触的强度的一个或多个传感器。在一些实施例中,所述显示器是触摸屏显示器并且所述触敏表面是在所述显示器上或与所述显示器集成。在一些实施例中,所述显示器与所述触敏表面分离。方法2500中的一些操作可选地被组合和/或一些操作的顺序被可选地改变。
根据一些实施例,当其他用户的设备被配置为与增强型照片交互(例如,兼容)时,方法2500允许用户与其他用户的设备共享她的增强型照片。为此,方法2500包括确定远程电子设备是否被配置为与增强型照片交互,并且当远程电子设备被配置为与增强型照片交互时,方法2500包括通过显示第一共享选项集合(例如,包括发送增强型照片)来对发送增强型照片的请求作出响应。当远程电子设备未被配置为与增强型照片交互时,方法2500包括通过显示第二共享选项集合(例如,包括发送仅仅代表性图像或将增强型照片转换为视频或GIF格式)来对发送增强型照片的请求作出响应。
第一电子设备在显示器上将代表性图像显示(2502)在被配置为与其他电子设备通信的应用的用户界面中。例如,代表性图像被显示在用于消息收发应用(例如,来自加利福尼亚库比蒂诺的苹果公司的iMessage)、社交网络应用(例如,Twitter或Facebook)、adhoc网络服务(例如,来自加利福尼亚库比蒂诺的苹果公司的AirDrop)或电子邮件应用(例如,来自加利福尼亚库比蒂诺的苹果公司的Mail)的输入区域中。
代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。在一些实施例中,拍摄图像序列的相机是第一电子设备的部分。在一些实施例中,图像序列由不为第一电子设备的部分的相机拍摄(例如,图像序列在利用另一设备上的相机被拍摄之后被传输到第一电子设备)。在一些实施例中,图像序列响应于检测到在第一时间处对快门按钮的激活而获得,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。在一些实施例中,代表性图像与由相机采集的代表性图像相对应,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。
在一些实施例中,被配置为与其他电子设备通信的应用响应于检测到对在共享用户界面中的与应用相对应的应用图标(例如,共享菜单,例如加利福尼亚库比蒂诺的苹果公司的iOS中的共享表)的选择而被显示(2504)。在一些实施例中,代表性图像被显示在共享用户界面中,并且共享用户界面被配置为显示将图像序列作为一组与之进行的交互(例如,参考图6A-6FF描述的那些交互)。在一些实施例中,共享用户界面响应于当代表性图像被显示在图像管理应用(例如,加利福尼亚库比蒂诺的苹果公司的”照片”)中时对共享图标的选择而被显示。
当在显示器上显示代表性图像时,第一电子设备检测(2506)与用以使用应用将代表性图像发送到在第一电子设备的远程的第二电子设备的请求或用以选择用于发送到在第一电子设备的远程的第二电子设备的代表性图像的请求相对应的输入(例如,检测由第一电子设备的触敏表面上的轻叩手势或鼠标点击对“发送”图标或“选择照片”图标的激活)。
响应于检测到与用以将代表性图像发送到远程的第二电子设备的请求或用以选择用于发送到第二电子设备的代表性图像的请求相对应的输入:根据第二电子设备被配置为将图像序列作为一组与之交互(例如,第二电子设备被配置为执行参考图6A-6FF描述的交互)的确定,第一电子设备显示(2508)用于将图像序列的至少部分发送到第二电子设备的第一选项集合(例如,如图21C和/或21I所示);并且根据第二电子设备未被配置为将图像序列作为一组与之交互的确定,第一电子设备显示用于将图像序列的至少部分发送到第二电子设备的第二选项集合(例如,如图21D和/或21J所示),其中第二选项集合与第一选项集合不同。
在一些实施例中,第二电子设备未被配置为将图像序列作为一组与之交互的确定包括其中不能够确定第二电子设备被配置为将图像序列作为一组与之交互的情况。在一些实施例中,如果不能够确定第二电子设备被配置为将图像序列作为一组与之交互,则可推断第二电子设备未被配置为将图像序列作为一组与之交互。
在一些实施例中,第二电子设备被配置为将图像序列作为一组与之交互的确定至少部分基于确定操作系统正由第二电子设备使用。在一些实施例中,作为呈现第一选项集合的备选方案,根据第二电子设备被配置为将图像序列作为一组与之交互的确定,第一电子设备自动发送图像序列(例如,发送要将其作为一组进行交互的整个图像序列,而没有在用户按下“发送”按钮之后的用户介入)。在一些实施例中,根据第二电子设备未被配置为将图像序列作为一组与之交互的确定,第一电子设备自动发送代表性图像而不发送由相机在采集代表性图像之后采集的一个或多个图像并且不发送由相机在采集代表性图像之前采集的一个或多个图像。
在一些实施例中,用于将图像序列的至少部分发送到第二电子设备的第一选项集合包括(2510)用于发送整个图像序列的选项(例如,第一选项集合包括用于发送图像序列作为增强型照片的选项)。
在一些实施例中,用于将图像序列的至少部分发送到第二电子设备的第二选项集合包括(2512)用于将图像序列的至少部分转换为视频格式(例如,MPEG格式)的选项。在一些实施例中,用于将图像序列的至少部分发送到第二电子设备的第二选项集合包括用于将图像序列的至少部分转换为第二电子设备被配置为与其交互的格式的选项。在一些实施例中,用于将图像序列的至少部分发送到第二电子设备的第二选项集合包括用于将图像序列的至少部分转换为动画图像格式(例如,GIF格式)的选项。
在一些实施例中,如果第二电子设备未被配置为将图像序列作为一组与之交互,代替发送代表性图像而不发送图像序列中的其他图像,第一电子设备显示向用户给出用于将图像序列(并且,在一些实施例中,与图像序列相对应的音频)转换成视频片段和/或动画GIF的选项的菜单(例如,弹出式菜单)。响应于对“转换为视频”和/或“作为视频发送”选项的用户选择,与图像序列相对应的视频被发送到第二电子设备。在一些实施例中,响应于对“转换为视频”和/或“作为视频发送”选项的用户选择,第一电子设备将图像序列转换成视频并将视频发送到第二电子设备。响应于对“转换为GIF”和/或“作为GIF发送”选项的用户选择,与图像序列相对应的动画GIF被发送到第二电子设备。在一些实施例中,响应于对“转换为GIF”和/或“作为GIF发送”选项的用户选择,第一电子设备将图像序列转换成动画GIF并将GIF发送到第二电子设备。
在一些实施例中,用于将图像序列的至少部分发送到第二电子设备的第一选项集合包括(2514)用于将图像序列的至少部分转换为视频格式(例如,MPEG格式)的选项。在一些实施例中,第一电子设备显示向用户给出用于将图像序列(并且,在一些实施例中,与图像序列相对应的音频)转换成视频片段和/或动画GIF的选项的菜单(例如,发送选项菜单),无论第二电子设备是否被配置为将图像序列作为一组与之交互。因此,如果这样的选项被选择,则即使第二电子设备被配置为将图像序列作为一组与之交互,视频或动画GIF代替图像序列(具有或没有相关联的音频和/或元数据)被发送到第二电子设备。
在一些实施例中,第一电子设备显示向用户给出用于将图像序列(并且,在一些实施例中,与图像序列相对应的音频)转换成视频片段和/或动画GIF的选项的菜单(例如,导出、“发送为”或“转换为”菜单)。如果这样的选项被选择,则图像序列(具有或没有相关联的音频和/或元数据)根据选择的选项被转换为视频或动画GIF。
在一些实施例中,根据第二电子设备被配置为将图像序列作为一组与之交互(例如,第二电子设备被配置为执行参考图6A-6FF描述的交互)的确定,第一电子设备发送(2516)与图像序列相对应的音频。例如,当第一选项集合包括用于发送整个图像序列(例如,发送增强型照片)的选项并且第一电子设备的用户选择用于发送整个图像序列的选项时,第一电子设备将音频发送到第二电子设备使得第二电子设备的用户可以回放增强型照片以及音频,如参考图6F-6I所描述的。
在一些实施例中,根据第二电子设备被配置为将图像序列作为一组与之交互(例如,第二电子设备被配置为执行参考图6A-6FF描述的交互)的确定,第一电子设备发送(2518)与第一图像序列相对应的元数据。例如,当第一选项集合包括用于发送整个图像序列(例如,发送增强型照片)的选项并且第一电子设备的用户选择用于发送整个图像序列的选项时,第一电子设备将元数据发送到第二电子设备使得第二电子设备的用户可以回放增强型照片以及元数据,如参考图6J-6M所描述的。在一些实施例中,用于图像序列的元数据被链接到图像序列(或者另外与其相关联),元数据例如时间、日期、位置(例如,经由GPS)、天气、当图像序列被采集时播放的音乐(例如,利用第一电子设备中的诸如Shazam、SoundHound或Midomi的音乐识别软件识别的音乐)和/或本地事件信息(例如当第一图像序列被采集时并且在第一图像序列被采集的地方播放的体育比赛)、事件后信息(例如最终分数)。
在一些实施例中,用于将图像序列的至少部分发送到第二电子设备的第二选项集合包括(2520)用于发送代表性图像而不发送由相机在采集代表性图像之后采集的一个或多个图像并且不发送由相机在采集代表性图像之前采集的一个或多个图像(例如,发送代表性图像作为静止图像)的选项。
在一些实施例中,第一电子设备确定(2522)第一电子设备是否处于允许将图像序列(例如,作为一组)发送的第一模式中。根据第一电子设备未处于允许将图像序列作为一组进行发送的第一模式中的确定,第一电子设备修改用于将图像序列的至少部分发送到第二电子设备的第一选项集合。在一些实施例中,为了发送图像序列代替仅仅发送代表性图像,除了确定第二电子设备被配置为将图像序列作为一组与之交互之外,第一电子设备还需要处于允许将图像序列作为一组进行发送的模式中,而非处于仅仅允许发送来自图像序列的静止图像(例如,代表性图像)的模式中。在一些实施例中,用户可以使用诸如如图20B所示的切换开关2006的可供件在这两种模式之间进行挑选。
在一些实施例中,当在显示器上显示代表性图像(以及选择组中的一个)时,第一电子设备检测(2524)第二输入。响应于检测到第二输入,第一电子设备利用对图像序列中的图像中的至少一些图像的顺序显示来替代对代表性图像的显示。在一些实施例中,第一电子设备被配置为当显示共享选项时回放增强型照片,这可以帮助用户决定她想要如何共享照片(例如,作为增强型照片、视频、GIF或静止图像)。
在一些实施例中,第一电子设备第一电子设备包括(2526)触敏表面和用于检测与触敏表面的接触的强度的一个或多个传感器。第二输入包括满足第一接触强度准则的手指接触。例如,当选项集被显示时,在代表性图像上的深压回放增强型照片。
应当理解,图25A-25C中的操作已经被描述的特定顺序仅仅是示例性的并且不旨在指示所描述的顺序是操作能够被执行的唯一顺序。本领域普通技术人员将意识到用于对本文中描述的操作进行重新排序的各种方式。在一些实施方式中,本文中描述的一个或多个操作可以被省略。例如,在一些实施例中,操作2510和2512被省略。额外地,应当指出,本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、1100、11000、1200、2400、2600和2700)描述的其他过程的细节也可以类似的方式适用于以上参考图25A-25C描述的方法2500。例如,以上关于方法2500描述的接触、手势、用户界面对象、强度阈值、动画和图像序列可选地具有本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、1100、11000、1200、2400、2600和2700)描述的接触、手势、用户界面对象、强度阈值、动画和图像序列的特征中的一个或多个。为简便起见,这里不再重复这些细节。
图26A-26D图示了根据一些实施例的使用场景识别来采集照片(例如,增强型照片或静止照片)的方法2600的流程图。在具有显示器、相机以及可选地触敏表面的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行方法2600。根据一些实施例,该设备包括用于检测与触敏表面的接触的强度的一个或多个传感器。在一些实施例中,所述显示器是触摸屏显示器并且所述触敏表面是在所述显示器上或与所述显示器集成。在一些实施例中,所述显示器与所述触敏表面分离。方法2600中的一些操作可选地被组合和/或一些操作的顺序被可选地改变。
根据一些实施例,该设备当从相机捕获图像时执行场景识别。响应于用户激活快门,该设备基于场景识别来确定是要保留图像序列(例如,作为增强型照片)还是要保留静止图像。例如,当场景包括大量移动时,该设备自动保留增强型照片。作为另一示例,当场景包括大量文本(例如,“场景”仅仅是收据或来自图书的页面)时,该设备保留静止图像。
为此,当处于用于相机的第一媒体采集模式中(例如,被标记为自动静止/增强型照片模式的模式)时:该设备在显示器上显示(2602)场景的实时预览。
该设备对场景执行(2604)场景识别。在一些实施例中,执行场景识别包括识别场景中的面部、识别场景中的运动、识别场景中的文本、识别场景是在室内还是室外(例如,识别阈值量的亮度和/或识别阳光)和/或识别场景的场地的深度(例如,确定场景是否为景观)。
当显示场景的实时预览时,该设备检测(2606)在第一时间处对快门按钮的单次激活。在一些实施例中,检测在第一时间处对快门按钮的单次激活包括检测在第一时间处在物理按钮的按下或者检测在第一时间处在触敏显示器上的虚拟快门按钮上的手势,例如在快门释放图标上的轻叩手势或者在实时预览上的轻叩手势,其中实时预览用作虚拟快门按钮。在一些实施例中,检测到的激活是对快门按钮的单次激活(例如,类似于在传统数字相机中用于以传统数字相机的静止图像模式捕获单个图像的单次激活)。在一些实施例中,对快门按钮的单次激活不要求激活被维持任何特定时间量(例如,对快门按钮的任何可检测到的激活将满足,无论激活被维持的长度如何)。
响应于检测到(2608)在第一时间处对快门按钮的单次激活:根据场景满足动作捕获准则(例如,涉及场景中的活动的准则)的确定,至少部分基于对场景执行的场景识别,该设备保留由相机在与在第一时间处对快门按钮的激活接近的时间上采集的多个图像并将多个图像分组到第一图像序列中(例如,该设备保留场景的增强型照片,如图22C-22D所示)。
第一图像序列包括:由相机在检测到在第一时间处对快门按钮的激活之前采集的多个图像;代表性图像,该代表性图像代表第一图像序列并且由相机在第一图像序列中的其他图像中的一个或多个之后采集;以及由相机在采集代表性图像之后采集的多个图像。
根据场景不满足动作捕获准则的确定,该设备保留在时间上接近在第一时间处对快门按钮的激活的单个图像(而不将由相机在与采集在第一时间处对快门按钮的激活接近的时间上采集的多个图像分组到第一图像序列中,如图22A-22B所示)。
在一些实施例中,在检测到在第一时间处对快门按钮的激活之前采集的图像是预定义数量的图像,例如5个、10个、15个、20个、25个或30个图像。在一些实施例中,在检测到在第一时间处对快门按钮的激活之前采集的图像是在第一时间之前的预定义时间内(例如,在第一时间之前的0.5秒、1.0秒、1.5秒、2.0秒或2.5秒内)的图像。在一些实施例中,其中,在检测到在第一时间处对快门按钮的激活之前采集的多个图像处于从在(在第一时间之前的)第二时间与第一时间之间的时间范围,并且在检测到在第一时间处对快门按钮的激活之前采集多个图像独立于在时间上接近第二时间的与快门按钮的交互。例如,在检测到在第一时间处对快门按钮的激活之前采集的多个图像不是响应于检测到在时间上接近第二时间的与快门按钮的交互而采集的。例如,在检测到在第一时间处对快门按钮的激活之前采集的多个图像不是响应于检测到在第二时间处或接近第二时间对部分(或完全)激活而采集的。
在一些实施例中,该设备在进入第一媒体采集模式后开始采集并存储图像。
在一些实施例中,第一图像序列中的在检测到在第一时间处对快门按钮的激活之前采集的多个图像满足预定义分组准则。在一些实施例中,预定义分组准则包括选择在代表性图像之前的预定义数量的图像。在一些实施例中,预定义分组准则包括选择在紧接在检测到对快门按钮的激活之前的预定义时间范围中的图像。在一些实施例中,预定义分组准则包括选择在采集代表性图像的时间之前的预定义时间范围中的图像。在一些实施例中,预定义分组准则包括选基于场景识别和/或设备的移动来选择图像(例如,该设备丢弃当该设备移动太多时获得的图像,从而丢弃例如当用户将该设备提起时拍摄的图像)。
在一些实施例中,代表性图像由相机在第一时间处采集并且类似于当传统数字相机的快门按钮被激活时以其静止图像模式捕获的单个图像。在一些实施例中,由相机采集的代表性图像与在第一时间处采集的图像相对应。在一些实施例中,由相机采集的代表性图像与在检测到在第一时间处对快门按钮的激活之后不久在考虑了快门迟滞(在检测到对快门按钮的激活与捕获/存储代表性图像之间的时间延迟)的时间处采集的图像相对应。在一些实施例中,由相机采集的代表性图像被用于表示例如图像呈现模式中的图像序列。
在一些实施例中,第一图像序列包括在采集代表性图像之后采集的预定义数量的图像,例如5个、10个、15个、20个、25个或30个图像。在一些实施例中,在采集代表性图像之后采集的图像是在采集代表性图像之后的预定义时间内(例如,在采集代表性图像之后的0.5秒、1.0秒、1.5秒、2.0秒或2.5秒内)的图像。在一些实施例中,第一图像序列包括在检测到在第一时间处对快门按钮的激活之后采集的预定义数量的图像,例如5个、10个、15个、20个、25个或30个图像。在一些实施例中,在检测到在第一时间处对快门按钮的激活之后采集的图像是在第一时间之后的预定义时间内(例如,在第一时间之后的0.5秒、1.0秒、1.5秒、2.0秒或2.5秒内)的图像。在一些实施例中,第一图像序列中的在采集代表性图像之后采集的多个图像满足预定义分组准则。在一些实施例中,预定义分组准则包括选择在代表性图像之后的预定义数量的图像。在一些实施例中,预定义分组准则包括选择在紧接在检测到对快门按钮的激活之后的预定义时间范围中的图像。在一些实施例中,预定义分组准则包括选择在采集代表性图像的时间之后的预定义时间范围中的图像。在一些实施例中,预定义分组准则包括选基于场景识别和/或设备的移动来选择图像。
在一些实施例中,动作捕获准则包括(2610)识别场景中的一个或多个面部。在一些实施例中,当该设备识别到场景中的至少一个面部时,该设备保留多个图像并对多个图像分组。
在一些实施例中,该设备包括(2612)用于采集图像的默认图像捕获参数。该设备确定(2614)场景包含纵向定向上的单个面部,单个面部占据多于显示器的预定量。响应于确定场景包含纵向定向上的单个面部,单个面部占据多于显示器的预定量:该设备采集(2616)(和/或保留)具有与默认图像捕获参数完全不同的图像捕获参数的多个图像(例如,更高的帧率以捕获表情中的小改变、更高的分辨率以更好地捕获细节、等等)。
在一些实施例中,动作捕获准则包括(2618)识别场景中的运动(例如,检测(例如,实时预览中的)高于预定阈值的运动)。在一些实施例中,当该设备识别到场景中的至少预定义阈值量的运动时,该设备保留多个图像并对多个图像分组。
在一些实施例中,对场景执行场景识别包括(2620)确定场景中的运动量。保留由相机在与在第一时间处对快门按钮的激活接近的时间上采集的多个图像包括:根据运动量为第一量的确定,以第一帧率保留多个图像;并且根据运动量为比第一量大的第二量的确定,以比第一帧率高的第二帧率保留图像。
在一些情况下,电子设备本身是移动的(例如,摇移和/或平移)。在一些实施例中,动作捕获准则包括(2622)检测到电子设备的移动高于预定阈值。在一些实施例中,该设备的移动的某些特性指示该设备在移动的场景处被瞄准(例如,该设备当保持大幅水平时被摇移)。当该设备确定该设备被瞄准时,该设备保留多个图像并对多个图像分组。例如,在一些情况下,该设备被摇移以跟踪对象(例如,打比赛的运动员、经过的汽车、等等)。在一些实施例中,检测电子设备的移动包括使用加速度计168来检测该设备的加速度(图1A)。
在一些实施例中,所保留的多个图像中的图像的数目取决于(2624)当采集多个图像时检测到的设备的移动。例如,该设备识别何时其被平移(例如,附着到山地自行车或滑雪者的头盔)。当该设备被更快地平移(例如,如由加速度的振动和或快速改变所指示的)时,该设备以更高的帧率和/或在更长的时间段保留多个图像并对多个图像分组,从而导致在多个图像中保留更大数量的图像。
在一些实施例中,执行场景识别包括识别具有活动的景观(例如,瀑布、风车、树叶随风摆动的树)。当该设备识别到该设备正在捕获具有活动的景观时,该设备保留多个图像并对多个图像分组(例如,作为增强型照片)。在一些实施例中,景观的增强型照片以循环方式回放使得景观场景连续出现。
相反,根据在场景中不存在面部、场景中没有显著移动、和/或电子设备本身没有移动(例如,该设备是固定的)的确定,该设备响应于检测到在第一时间处对快门按钮的激活(而没有将由相机在与在第一时间处对快门按钮的激活接近的时间上采集的多个图像分组到第一图像序列中)而采集单个图像。在一些实施例中,单个图像是合并多个静止图像的静止图像,例如高动态范围(HDR)静止图像。
在一些实施例中,该设备的移动的某些特性指示该设备未被瞄准(例如,从用户的口袋被掏出和/或被向上提升以瞄准场景)。当设备确定其在没有被瞄准的情况下移动时,该设备保留单个图像。
在一些实施例中,对场景执行场景识别包括(2626)识别文本。动作捕获准则包括当场景中的文本的量低于预定义阈值时被满足的准则。在一些实施例中,该设备图片当图片是收据或文档的图片时进行识别。当图片是收据或文档的图片时,该设备捕获静止图像而非增强型照片。
应当理解,图26A-26D中的操作已经被描述的特定顺序仅仅是示例性的并且不旨在指示所描述的顺序是操作能够被执行的唯一顺序。本领域普通技术人员将意识到用于对本文中描述的操作进行重新排序的各种方式。在一些实施方式中,本文中描述的一个或多个操作可以被省略。例如,在一些实施例中,操作2610和2612被省略。额外地,应当指出,本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、1100、11000、1200、2400、2500和2700)描述的其他过程的细节也可以类似的方式适用于以上参考图26A-26D描述的方法2600。例如,以上关于方法2600描述的接触、手势、用户界面对象、强度阈值、动画和图像序列可选地具有本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、1100、11000、1200、2400、2500和2700)描述的接触、手势、用户界面对象、强度阈值、动画和图像序列的特征中的一个或多个。为简便起见,这里不再重复这些细节。
图27A-27D图示了根据一些实施例的剪辑图像序列(例如,增强型照片)的方法2700的流程图。在具有显示器、相机以及可选地触敏表面的电子设备(例如,图3的设备300或图1A的便携式多功能设备100)处执行方法2700。在一些实施例中,该设备包括用于检测与触敏表面的接触的强度的一个或多个传感器。在一些实施例中,显示器是触摸屏显示器并且触敏表面是在显示器上或与显示器集成。在一些实施例中,显示器与触敏表面分离。方法2700中的一些操作可选地被组合和/或一些操作的顺序被可选地改变。
根据一些实施例,该设备提供用于将图像序列剪辑为图像序列的子集(例如,修改图像序列中的开始图像和结束图像)的用户界面。当用户请求剪辑增强型照片时,该设备提供用户可以用于修改图像序列中的开始图像和结束图像的可移动柄部。柄部的初始位置(例如,当用户第一次进入用于剪辑图像序列的用户界面时)由该设备(例如,基于场景检测)自动提供。在一些实施例中,用户可以在自动建议的开始图像和结束图像与图像序列中的初始图像和最终图像之间切换柄部的位置。如本文中所使用的,术语“初始图像”和“最终图像”是指(原始)图像序列中的第一图像和最后一个图像,然而,“开始图像”和“结束图像”是指图像序列的子集中的第一图像和最后一个图像。
为此,该设备在显示器上显示(2702)图像(例如,当该设备处于图像编辑模式中时)。
该图像是由相机拍摄的图像序列中的一个图像。图像序列包括代表性图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。在一些实施例中,拍摄图像序列的相机是电子设备的部分。在一些实施例中,图像序列由不为电子设备的部分的相机拍摄(例如,图像序列在利用另一设备上的相机被拍摄之后被传输到电子设备)。在一些实施例中,图像序列响应于检测到在第一时间处对快门按钮的激活而获得,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。在一些实施例中,代表性图像与由相机采集的代表性图像相对应,如在本文中参考图5A-5K和方法900和/或图22A-22D和方法2600所描述的。
在一些实施例中,当显示图像时,该设备显示图像为图像序列中的相应图像的视觉指示(例如,该设备显示图像时来自增强型照片的指示)。在一些实施例中,图像为图像序列中的相应图像的视觉指示是可供件(例如,图23A的可选择的可供件2304)。在一些实施例中,可供件当增强型照片被显示时被动画演示,并且可供件当静止图像被显示时不被动画演示。在一些实施例中,对可供件的激活得到对编辑菜单的显示,从该编辑菜单用户可以选择用于剪辑图像序列的功能。在一些实施例中,方法2700的一些操作在用户激活用于剪辑图像序列的功能之后被执行。
在一些实施例中,所显示的图像是(2704)来自图像序列的代表性图像。
在一些实施例中,所显示的图像是(2706)来自图像序列的当前所选择的图像。在一些实施例中,当前所选择的图像与图像序列中的其他图像被视觉区分。在一些实施例中,当前选择的图像在当前选择的图像的表示(例如,缩略图)被显示在包含图像序列中的图像的表示的情况下同时地被显示在(下面描述的)第二区域中。在一些实施例中,对给定图像的选择利用给定图像作为新的代表性图像来替代代表性图像。在一些实施例中,用户可以通过在图像序列中的给定图像的缩略图上进行轻叩以选择新的代表性图像来选择用于图像序列的新的代表性图像。
当在显示器上显示图像序列中的图像时,该设备检测(2708)第一输入(例如,检测与用于显示用于剪辑图像序列的用户界面的请求相对应的输入,例如图23B中的剪辑图标2310-3上的轻叩手势)。
响应于检测到第一输入:该设备显示(2710)用于将图像序列剪辑为图像序列的少于全部的子集的用户界面。在一些实施例中,用户界面是剪辑模式的部分。
该用户界面包括:包含图像序列中的图像的表示的区域(例如,条带,例如图23C的条带2316);用户可调节的开始剪辑图标(例如,图23C的开始柄部2320-a),其经由开始剪辑图标在包含图像序列中的图像的表示的区域中的位置来界定图像序列的子集中的开始图像;以及用户可调节的结束剪辑图标(例如,图23C的开始柄部2320-b),其经由结束剪辑图标在包含图像序列中的图像的表示的区域中的位置来界定图像序列的子集中的结束图像。在一些实施例中,图像的表示小于所显示的图像。在一些实施例中,图像的表示是图像序列中的图像的缩略图。在一些实施例中,图像的表示按时间顺序来排列。
开始剪辑图标被定位在包含图像序列中的图像的表示的区域中的由设备自动选择的第一位置处。结束剪辑图标被定位在包含图像序列中的图像的表示的区域中的由设备自动选择的第二位置处。在一些实施例中,由该设备自动选择的用于子集的开始图像(其由开始剪辑图标的第一位置示出)不是图像序列中的初始图像。在一些实施例中,用于子集的开始图像是图像序列中的比初始图像更靠后的图像。在一些实施例中,由该设备自动选择的用于子集的结束图像(其由结束剪辑图标的第二位置示出)不是图像序列中的最终图像。在一些实施例中,用于子集的结束图像是图像序列中的比最终图像更靠前的图像。
在一些实施例中,在开始剪辑图标与结束剪辑图标之间的图像的表示与包含图像序列中的图像的表示的区域中的其他表示被视觉区分(2712)。在一些实施例中,图像序列和图像序列的子集两者都包括由相机采集的图像的未中断的连续图像集。
在一些实施例中,用于剪辑图像序列的用户界面包括(2714)显示图像序列中的图像的第二区域。第二区域与包含图像序列中的图像的表示的区域同时地被显示。在一些实施例中,第二区域占据超过显示器的一半,超过显示器的80%,或者超过显示器的90%。在一些实施例中,显示器的第二区域占据显示器的整个区域,省去在显示器的顶部和底部处的任选的菜单栏和包含图像序列中的图像的表示的区域。
在一些实施例中,自动地选择子集中的开始图像和对应的开始剪辑图标的第一位置基于(2716)图像序列中的图像的一个或多个特征。自动地选择子集中的结束图像和对应的开始剪辑图标的第二位置基于图像序列中的图像的一个或多个特征。在一些实施例中,该设备基于图像序列中的场景识别来选择/建议子集中的开始图像和结束图像。
在一些实施例中,图像序列包括(2718)初始图像和最终图像。该设备将未被包括在图像序列中的在图像序列中的初始图像之前获得的和/或在图像序列中的最终图像之后获得的图像的一个或多个表示显示在包含图像序列中的图像的表示的区域中。在一些实施例中,除了剪辑原始图像序列,用户还能够添加刚好在原始图像序列之前或者刚好在原始图像序列之后获得的图像。
在一些实施例中,在检测到第二输入之前,当显示用于剪辑图像序列的用户界面时,该设备检测(2720)结束剪辑图标上的输入。响应于检测到剪辑图标上的输入,该设备将结束剪辑图标从第二位置移动到包含图像序列中的图像的表示的区域中的第三位置。在一些实施例中,用户能够手动重写由该设备自动地推荐/选择的用于子集的结束图像。类似地,在一些实施例中,用户能够手动重写由该设备自动地推荐/选择的用于子集的开始图像,例如利用在开始剪辑图标上开始并且将开始剪辑图标从第一位置移动到包含图像序列中的图像的表示的区域中的另一位置的拖拽手势。
当显示用于剪辑图像序列的用户界面时,该设备检测(2722)第二输入(例如,检测对图23C的完成图标2301的激活)或者根据开始剪辑图标和结束剪辑图标的当前位置来开始剪辑的另一图标)。
响应于检测到第二输入,该设备根据开始剪辑图标的当前位置和结束剪辑图标的当前位置来将图像序列剪辑(2724)为图像序列的子集。在一些实施例中,将图像序列剪辑为图像序列的子集包括存储指示子集中的开始图像和子集中的结束图像的位置的数据。
在一些实施例中,该设备从图像序列删除(2726)未被包括在图像序列的子集中的图像。在一些实施例中,该设备将图像序列编辑为仅仅包括子集中的那些图像(其由该设备自动选择/建议并由用户确认,或者其由用户手动选择)。在一些实施例中,该设备继续存储不在子集中的图像,例如使得用户可以在稍后时间在(例如,如由相机获得的)图像序列中的所有原始图像可获得的情况下进一步修改图像序列。
在一些实施例中,图像序列包括(2728)初始图像和最终图像,并且用户界面包括重置可供件(例如,图23C的重置按钮2324)、“手动”按钮或其他类似的图标)。在检测到第二输入之前,当显示用于剪辑图像序列的用户界面时,该设备检测重置可供件上的输入(例如,图23C的重置按钮2324上的轻叩手势)。响应于检测到重置可供件上的输入:该设备将开始剪辑图标显示在包含图像序列中的图像的表示的区域中的与对图像序列中的初始图像进行界定相对应的位置处;并且将结束剪辑图标显示在包含图像序列中的图像的表示的区域中的与对图像序列中的最终图像进行界定相对应的位置处。
在一些实施例中,响应于检测到重置可供件上的输入:该设备在包含图像序列中的图像的表示的区域中显示(2730)自动选择可供件(例如,图23D的“自动”图标2332),当自动选择可供件被激活时将开始剪辑图标显示在第一位置处并且将结束剪辑图标显示在第二位置处。在一些实施例中,对“自动”图标的显示替代对“重置”图标的显示。
在一些实施例中,响应于检测到第三输入,该设备选择(2732)用于图像序列的子集的新的代表性图像(例如,在子集的中间的图像或者基于对图像序列的子集执行的场景识别选择的图像)。
在一些实施例中,在根据开始剪辑图标的当前位置和结束剪辑图标的当前位置来将图像序列剪辑为图像序列的子集之后,该设备(例如,当该设备处于图像呈现模式中时)在显示器上显示(2734)图像序列的子集的代表性图像。在一些实施例中,图像序列的子集的代表性图像与图像序列的代表性图像相同。在一些实施例中,图像序列的子集的代表性图像与图像序列的代表性图像不同。在一些实施例中,响应于与用于退出编辑模式的请求相对应的输入来显示子集的代表性图像。当在显示器上显示代表性图像时,该设备检测第三输入(例如,与用于回放图像序列的子集的请求相对应的输入,例如按下并保持手势或者满足用于回放的接触强度准则的手势)。响应于检测到第三输入,该设备利用对图像序列的子集的动画回放来替代对代表性图像的显示。在一些实施例中,以与如本文中参考图6A-6FF和方法1000/10000/10050描述的对图像序列的回放类似的方式来回放图像序列的子集。
在一些实施例中,响应于检测到第四输入,该设备禁用(2736)对图像序列的子集的动画回放同时保留图像的子集。
在一些实施例中,响应于检测到与用以编辑代表性图像的请求相对应的第三输入,该设备向设备的用户提供(2738)用于执行以下的选项:在禁用对图像序列的子集的动画回放的情况下继续编辑代表性图像;以及取消对代表性图像进行编辑。
在一些实施例中,该设备呈现(2740)用于删除图像序列中的除了代表性图像之外的图像的可供件。响应于检测到第三输入,该设备删除由相机在采集代表性图像之后采集的一个或多个图像以及由相机在采集代表性图像之前采集的一个或多个图像。
应当理解,图27A-27E中的操作已经被描述的特定顺序仅仅是示例性的并且不旨在指示所描述的顺序是操作能够被执行的唯一顺序。本领域普通技术人员将意识到用于对本文中描述的操作进行重新排序的各种方式。在一些实施方式中,本文中描述的一个或多个操作可以被省略。例如,在一些实施例中,操作2714和2716被省略。额外地,应当指出,本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、1100、11000、1200、2400、2500和2600)描述的其他过程的细节也可以类似的方式适用于以上参考图27A-27E描述的方法2700。例如,以上关于方法2700描述的接触、手势、用户界面对象、强度阈值、动画和图像序列可选地具有本文中关于本文中描述的其他方法(例如,方法900、1000、10000、10050、1100、11000、1200、2400、2500和2600)描述的接触、手势、用户界面对象、强度阈值、动画和图像序列的特征中的一个或多个。为简便起见,这里不再重复这些细节。
根据一些实施例,图28示出了根据各种描述的实施例的原理配置的电子设备2800的功能方框图。所述设备的功能框可选地由硬件、软件或硬件和软件的组合实施以实现各种描述的实施例的原理。本领域技术人员应理解,图28中描述的功能框可选地被组合或被分离成子框以实施各种描述的实施例的原理。因此,本文中的描述可选地支持对本文中描述的功能框的任何可能的组合或分离或进一步限定。
如图28所示,电子设备2800包括:显示单元2802,其被配置为显示图像;触敏表面单元2804,其被配置为检测用户输入;以及处理单元2808,其与显示单元2802和触敏表面单元2804耦合。在一些实施例中,处理单元2808包括:显示使能单元2810、检测单元2812、修改单元2814和删除单元2816。
处理单元2808被配置为在显示单元2812上(例如,利用显示使能单元2810)使得能够显示代表性图像。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。处理单元2808还被配置为当在显示单元2802上使得能够显示代表性图像时(例如,利用检测单元2812连同触敏表面单元2804一起)检测用于修改代表性图像的输入。处理单元2808还被配置为检测到用于修改代表性图像的输入:根据该设备处于第一编辑模式中的确定,(例如,利用修改单元2814)修改代表性图像、由相机在采集代表性图像之后采集的一个或多个图像以及由相机在采集代表性图像之前采集的一个或多个图像;并且,根据处于与第一编辑模式完全不同的第二编辑模式中的确定,(例如,利用修改单元2814)修改代表性图像,而不修改由相机在采集代表性图像之后采集的一个或多个图像,并且不修改由相机在采集代表性图像之前采集的一个或多个图像。
根据一些实施例,图29示出了根据各种描述的实施例的原理配置的电子设备2900的功能框图。所述设备的功能框可选地由硬件、软件或硬件和软件的组合实施以实现各种描述的实施例的原理。本领域技术人员应理解,图29中描述的功能框可选地被组合或被分离成子框以实施各种描述的实施例的原理。因此,本文中的描述可选地支持对本文中描述的功能框的任何可能的组合或分离或进一步限定。
如图29所示,第一电子设备2900包括:显示单元2902,其被配置为显示图像;可选触敏表面单元2904,其被配置为检测输入;一个或多个可选传感器单元2906,其被配置为检测与触敏表面单元2904的接触的强度;以及处理单元2908,其与显示单元2902、可选触敏表面单元2904以及一个或多个可选传感器单元2906耦合。在一些实施例中,处理单元2908包括:显示使能单元2910、检测单元2912、确定单元2914、修改单元2916以及发送单元2918。
处理单元2908被配置为在显示单元2902上(例如,利用显示使能单元2910)使得能够将代表性图像显示在被配置为与其他电子设备通信的应用的用户界面中。代表性图像是由相机拍摄的图像序列中的一个图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。处理单元2908还被配置为当在显示单元2902上使得能够显示代表性图像时(例如,利用检测单元2912连同触敏表面单元2904一起)检测与用以发送代表性图像的请求或用于选择用于使用应用发送到在电子设备的远程的第二电子设备的代表性图像的请求相对应的输入。处理单元2908还被配置为响应于检测到与使用应用用以发送代表性图像的请求或用以选择用于发送到第二电子设备的代表性图像的请求相对应的输入:根据第二电子设备被配置为将图像序列作为一组与之交互的确定,(例如,利用显示使能单元2910)使得能够显示用于将图像序列的至少部分发送到第二电子设备的第一选项集合;并且根据第二电子设备未被配置为将图像序列作为一组与之交互的确定,(例如,利用显示使能单元2910)使得能够显示用于将图像序列的至少部分发送到第二电子设备的第二选项集合。第二选项集合与第一选项集合不同。
根据一些实施例,图30示出了根据各种描述的实施例的原理配置的电子设备3000的功能框图。所述设备的功能框可选地由硬件、软件或硬件和软件的组合实施以实现各种描述的实施例的原理。本领域技术人员应理解,图30中描述的功能框可选地被组合或被分离成子框以实施各种描述的实施例的原理。因此,本文中的描述可选地支持对本文中描述的功能框的任何可能的组合或分离或进一步限定。
如图30所示,电子设备3000包括:显示单元3002,其被配置为显示图像;可选触敏表面单元3004,其被配置为检测用户输入;相机单元2906,其被配置为采集图像;以及处理单元3008,其与显示单元3002、可选触敏表面单元3004和相机单元2906耦合。在一些实施例中,处理单元3008包括:显示使能单元3010、检测单元3012、场景识别执行单元3014、保留单元3016、分组单元3018以及采集单元3020。
处理单元3008被配置为当处于用于相机单元3006的第一媒体采集模式中时:在显示单元3002上(例如,利用显示使能单元3010)使得能够显示场景的实时预览并(例如,利用场景识别执行单元3014)对场景执行场景识别。处理单元3008还被配置为当使得能够显示实时预览时(例如,利用检测单元3012连同触敏表面单元3004一起)检测在第一时间处对快门按钮的单次激活。处理单元3008被配置为响应于检测到在第一时间处对快门按钮的单次激活,根据场景满足动作捕获准则的确定,至少部分基于对场景执行的场景识别,(例如,利用保留单元3016)保留由相机单元3006在与在第一时间处对快门按钮的激活接近的时间上采集的多个图像并(例如,利用分组单元3018)将多个图像分组到第一图像序列中。第一图像序列包括:由相机单元3006在检测到在第一时间处对快门按钮的激活之前采集的多个图像;代表性图像,该代表性图像代表第一图像序列并且由相机单元3006在第一图像序列中的其他图像中的一个或多个之后采集;以及由相机单元3006在采集代表性图像之后采集的多个图像。处理单元3008被配置为根据场景不满足动作捕获准则的确定,(例如,利用保留单元3016)保留在时间上接近在第一时间处对快门按钮的激活的单个图像。
根据一些实施例,图31示出了根据各种描述的实施例的原理配置的电子设备3100的功能方框图。所述设备的功能框可选地由硬件、软件或硬件和软件的组合实施以实现各种描述的实施例的原理。本领域技术人员应理解,图31中描述的功能框可选地被组合或被分离成子框以实施各种描述的实施例的原理。因此,本文中的描述可选地支持对本文中描述的功能框的任何可能的组合或分离或进一步限定。
如图31所示,电子设备3100包括:显示单元3102,其被配置为显示图像;触敏表面单元3104,其被配置为检测用户输入;以及处理单元3108,其与显示单元3102和触敏表面单元3104耦合。在一些实施例中,处理单元3108包括:显示使能单元3110、检测单元3112、剪辑单元3114、选择单元3116、移动单元3118以及删除单元3120。
处理单元3108被配置为在显示单元3102上(例如,利用显示使能单元3110)使得能够显示图像。该图像是由相机拍摄的图像序列中的一个图像。图像序列包括代表性图像。图像序列包括由相机在采集代表性图像之后采集的一个或多个图像。图像序列包括由相机在采集代表性图像之前采集的一个或多个图像。
处理单元3108还被配置为当在显示单元3102上使得能够显示图像序列中的图像时(例如,利用检测单元3112)检测第一输入。处理单元3108还被配置为响应于检测到第一输入:(例如,利用显示使能单元3110)使得能够显示用于将图像序列剪辑为图像序列的少于全部的子集的用户界面。该用户界面包括:包含图像序列中的图像的表示的区域;用户可调节的开始剪辑图标,其经由开始剪辑图标在包含图像序列中的图像的表示的区域中的位置来界定图像序列的子集中的开始图像;以及用户可调节的结束剪辑图标,其经由结束剪辑图标在包含图像序列中的图像的表示的区域中的位置来界定图像序列的子集中的结束图像。开始剪辑图标被定位在包含图像序列中的图像的表示的区域中的由设备自动选择的第一位置处。结束剪辑图标被定位在包含图像序列中的图像的表示的区域中的由设备自动选择的第二位置处。
处理单元3108还被配置为当使得能够显示用于剪辑图像序列的用户界面时(例如,利用检测单元3112)检测第二输入。处理单元3108还被配置为响应于检测到第二输入根据开始剪辑图标的当前位置和结束剪辑图标的当前位置(例如,利用剪辑单元3114)来将图像序列剪辑为图像序列的子集。
以上描述的方法中的操作可选地通过运行诸如(例如,如以上参考图1A和3描述的)通用处理器或专用芯片的信息处理装置中的一个或多个功能模块来实施。以上参考图9A-9G描述的操作可选地由图1A-1B或图13中描绘的组件来实施。例如,检测操作908可选地由事件分类程序170、事件识别程序180和事件处理程序190来实施。事件分类程序170中的事件监控器171检测触敏显示器112上的接触,并且事件调度程序模块174将事件信息递送到应用136-1。应用136-1的相应事件识别程序180将事件信息与相应事件定义186进行比较,并确定在触敏表面上的第一位置处的第一接触(或者设备的旋转)是否与预定义事件或子事件相对应,预定义事件或子事件例如对用户界面上的对象的选择或者对设备从一种定向到另一种定向的旋转。当检测到相应预定义事件或子事件时,事件识别程序180激活与对事件或子事件的检测相关联的事件处理程序190。事件处理程序190可选地使用或调用数据更新程序176或对象更新程序177来更新应用内部状态192。在一些实施例中,事件处理程序190访问相应的GUI更新程序178以更新什么由应用显示。类似地,对于本领域普通技术人员将清楚的是,如何能够基于图1A-1B中描绘的组件来实施其他过程。
已经出于解释的目的参考具体实施例描述了前面的描述。然而,以上的说明性讨论不旨在为穷举的或将本实用新型限于所公开的精确形式。例如,本文中描述的方法也可以类似的方式适用于与远程控制和显示器(例如,来自加利福尼亚库比蒂诺的苹果公司Apple TV)通信的被配置用于管理、回放和/或流传输(例如,从外部服务器)音频内容和/或视觉内容的电子设备。针对这样的设备,可选地接收与远程控制的触敏表面上的手势、到远程控制的语音输入、和/或对远程控制上的按钮的激活相对应的输入,而非在设备本身上具有触敏表面、音频输入设备(例如,麦克风)和/或按钮。针对这样的设备,数据可选地被提供到显示器而非由设备本身显示。鉴于以上教导能够进行许多修改和变型。实施例被选择并被描述以便最好地解释本实用新型的原理和其实际应用,以由此使得本领域其他技术人员最好地使用本实用新型和具有如适于预见到的特定用途的各种修改的各种描述的实施例。

Claims (26)

1.一种电子设备,其特征在于包括:
显示单元,其被配置为显示图像;
触敏表面单元,其被配置为检测用户输入;以及
处理单元,其与所述显示单元和所述触敏表面单元耦合,所述处理单元被配置为:
使得能够在所述显示单元上显示代表性图像,其中:
所述代表性图像是由相机拍摄的图像序列中的一个图像;
所述图像序列包括由所述相机在采集所述代表性图像之后采集的一个或多个图像;并且
所述图像序列包括由所述相机在采集所述代表性图像之前采集的一个或多个图像;
当使得能够在所述显示单元上显示所述代表性图像时检测第一输入的第一部分;并且,
响应于检测到所述第一输入的所述第一部分:
从显示所述代表性图像转变到显示所述图像序列中的相应先前图像,其中所述相应先前图像由所述相机在采集所述代表性图像之前采集;并且
在从显示所述代表性图像转变到显示所述相应先前图像之后,使得能够以所述相应先前图像开始顺序显示由所述相机在采集所述代表性图像之前采集的所述一个或多个图像中的至少一些图像和由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像。
2.根据权利要求1所述的电子设备,其特征在于,从显示所述代表性图像转变到显示所述相应先前图像包括使得能够顺序显示由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像,并且之后使得能够利用所述相应先前图像来替代对在采集所述代表性图像之后采集的相应后续图像的显示。
3.根据权利要求1所述的电子设备,其特征在于,从显示所述代表性图像转变到显示所述相应先前图像包括使得能够利用所述相应先前图像来替代对所述代表性图像的显示。
4.根据权利要求1所述的电子设备,其特征在于,从显示所述代表性图像转变到显示所述相应先前图像包括:
根据所述第一输入的所述第一部分满足第一回放准则的确定,使得能够顺序显示由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像,并且之后使得能够利用所述相应先前图像来替代对在采集所述代表性图像之后采集的相应后续图像的显示;以及
根据所述第一输入的所述第一部分满足与第一回放准则不同的第二回放准则的确定,使得能够利用所述相应先前图像来替代对所述代表性图像的显示。
5.根据权利要求4所述的电子设备,其特征在于:
所述设备包括用于检测与所述触敏表面单元的接触的强度的一个或多个传感器单元;
所述第一输入包括在所述触敏表面单元上的接触;
所述第一回放准则包括当所述接触具有高于第一强度阈值的特征强度时被满足的准则;并且
所述第二回放准则包括当所述接触具有高于比所述第一强度阈值更大的第二强度阈值的特征强度时被满足的准则。
6.根据权利要求1所述的电子设备,其特征在于,所述第一输入是按下并保持手势。
7.根据权利要求1所述的电子设备,其特征在于,以固定速率以所述相应先前图像开始顺序显示由所述相机在采集所述代表性图像之前采集的所述一个或多个图像和由所述相机在采集所述代表性图像之后采集的所述一个或多个图像。
8.根据权利要求1所述的电子设备,其特征在于,所述处理单元被配置为:
呈现与所述图像序列相对应的音频。
9.根据权利要求1所述的电子设备,其特征在于,所述处理单元被配置为:
在检测到所述第一输入的所述第一部分之后,检测所述第一输入的第二部分;并且
响应于检测到所述第一输入的所述第二部分,使得能够顺序显示由所述相机在采集所述代表性图像之前采集的所述一个或多个图像中的至少一些图像和由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像。
10.根据权利要求9所述的电子设备,其特征在于,所述处理单元被配置为:
响应于检测到所述第一输入的所述第二部分,使得能够显示与所述图像序列相对应的元数据。
11.根据权利要求1所述的电子设备,其特征在于,所述处理单元被配置为:
检测所述第一输入的终止;并且
响应于检测到所述第一输入的终止,使得能够显示所述代表性图像。
12.根据权利要求1所述的电子设备,其特征在于,所述处理单元被配置为:
当使得能够显示所述图像序列中的第一图像时检测所述第一输入的终止;并且,
响应于当使得能够显示所述图像序列中的所述第一图像时检测到所述第一输入的终止:
根据所述第一图像出现在所述图像序列中的所述代表性图像之前的确定,使得能够按时间顺序来顺序显示从所述第一图像到所述代表性图像的图像,并且
根据所述第一图像出现在所述图像序列中的所述代表性图像之后的确定,使得能够按反向时间顺序来顺序显示从所述第一图像 到所述代表性图像的图像。
13.根据权利要求1所述的电子设备,其特征在于,所述图像序列被配置为在前向方向或反向方向上以循环方式被顺序显示,并且所述处理单元被配置为:
当使得能够显示所述图像序列中的第一图像时检测所述第一输入的终止;并且,
响应于当使得能够显示所述图像序列中的所述第一图像时检测到所述第一输入的终止:
根据当所述循环在所述前向方向上被遍历时在所述第一图像与所述代表性图像之间存在较少图像的确定,使得能够在所述前向方向上顺序显示从所述第一图像到所述代表性图像的图像,并且
根据当所述循环在所述反向方向上被遍历时在所述第一图像与所述代表性图像之间存在较少图像的确定,使得能够在所述反向方向上顺序显示从所述第一图像到所述代表性图像的图像。
14.一种用于显示图像的装置,其特征在于包括:
用于在包括触敏表面的电子设备的显示器上显示代表性图像的部件,其特征在于:
所述代表性图像是由相机拍摄的图像序列中的一个图像;
所述图像序列包括由所述相机在采集所述代表性图像之后采集的一个或多个图像;并且
所述图像序列包括由所述相机在采集所述代表性图像之前采集的一个或多个图像;
当在所述显示器上显示所述代表性图像时而被启用以用于检测第一输入的第一部分的部件;以及,
用于响应于检测到所述第一输入的所述第一部分而被启用的部件,包括:
用于从显示所述代表性图像转变到显示所述图像序列中的相应先前图像的部件,其中所述相应先前图像由所述相机在采集所述代表性图像之前采集;以及,
用于在从显示所述代表性图像转变到显示所述相应先前图像之后以所述相应先前图像开始顺序显示由所述相机在采集所述代表性图像之前采集的所述一个或多个图像中的至少一些图像和由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像的部件。
15.根据权利要求14所述的装置,其特征在于,从显示所述代表性图像转变到显示所述相应先前图像包括顺序显示由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像,并且之后利用所述相应先前图像来替代对在采集所述代表性图像之后采集的相应后续图像的显示。
16.根据权利要求14所述的装置,其特征在于,从显示所述代表性图像转变到显示所述相应先前图像包括利用所述相应先前图像来替代对所述代表性图像的显示。
17.根据权利要求14所述的装置,其特征在于,从显示所述代表性图像转变到显示所述相应先前图像包括:
根据所述第一输入的所述第一部分满足第一回放准则的确定,顺序显示由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像,并且之后利用所述相应先前图像来替代对在采集所述代表性图像之后采集的相应后续图像的显示;以及
根据所述第一输入的所述第一部分满足与第一回放准则不同的第二回放准则的确定,利用所述相应先前图像来替代对所述代表性图像的显示。
18.根据权利要求17所述的装置,其特征在于:
所述设备包括用于检测与所述触敏表面的接触的强度的一个或多个传感器;
所述第一输入包括在所述触敏表面上的接触;
所述第一回放准则包括当所述接触具有高于第一强度阈值的特征强度时被满足的准则;并且
所述第二回放准则包括当所述接触具有高于比所述第一强度阈 值更大的第二强度阈值的特征强度时被满足的准则。
19.根据权利要求14所述的装置,其特征在于,所述第一输入是按下并保持手势。
20.根据权利要求14所述的装置,其特征在于,以固定速率以所述相应先前图像开始顺序显示由所述相机在采集所述代表性图像之前采集的所述一个或多个图像和由所述相机在采集所述代表性图像之后采集的所述一个或多个图像。
21.根据权利要求14所述的装置,其特征在于包括:
用于呈现与所述图像序列相对应的音频的部件。
22.根据权利要求14所述的装置,其特征在于包括:
用于在检测到所述第一输入的所述第一部分之后检测所述第一输入的第二部分的部件;以及
用于响应于检测到所述第一输入的所述第二部分而顺序显示由所述相机在采集所述代表性图像之前采集的所述一个或多个图像中的至少一些图像和由所述相机在采集所述代表性图像之后采集的所述一个或多个图像中的至少一些图像的部件。
23.根据权利要求22所述的装置,其特征在于包括:
用于响应于检测到所述第一输入的所述第二部分而显示与所述图像序列相对应的元数据的部件。
24.根据权利要求14所述的装置,其特征在于包括:
用于检测所述第一输入的终止的部件;以及
用于响应于检测到所述第一输入的终止而显示所述代表性图像的部件。
25.根据权利要求14所述的装置,其特征在于包括:
用于当显示所述图像序列中的第一图像时检测所述第一输入的终止的部件;以及,
响应于当显示所述图像序列中的所述第一图像时检测到所述第一输入的终止:
用于根据所述第一图像出现在所述图像序列中的所述代表 性图像之前的确定来按时间顺序来顺序显示从所述第一图像到所述代表性图像的图像的部件,以及
用于根据所述第一图像出现在所述图像序列中的所述代表性图像之后的确定来按反向时间顺序来顺序显示从所述第一图像到所述代表性图像的图像的部件。
26.根据权利要求14所述的装置,其特征在于,所述图像序列被配置为在前向方向或反向方向上以循环方式被顺序显示,并且所述装置包括:
用于当显示所述图像序列中的第一图像时检测所述第一输入的终止的部件;以及,
响应于当显示所述图像序列中的所述第一图像时检测到所述第一输入的终止:
用于根据当所述循环在所述前向方向上被遍历时在所述第一图像与所述代表性图像之间存在较少图像的确定来在所述前向方向上顺序显示从所述第一图像到所述代表性图像的图像的部件,以及用于根据当所述循环在所述反向方向上被遍历时在所述第一图像与所述代表性图像之间存在较少图像的确定来在所述反向方向上顺序显示从所述第一图像到所述代表性图像的图像的部件。
CN201620470247.4U 2015-06-07 2016-05-20 电子设备以及用于显示图像的装置 Active CN205788149U (zh)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
US201562172223P 2015-06-07 2015-06-07
US62/172,223 2015-06-07
US201562172233P 2015-06-08 2015-06-08
US62/172,233 2015-06-08
US201562215689P 2015-09-08 2015-09-08
US62/215,689 2015-09-08
US14/863,432 2015-09-23
US14/863,432 US9860451B2 (en) 2015-06-07 2015-09-23 Devices and methods for capturing and interacting with enhanced digital images
US14/864,580 2015-09-24
US14/864,580 US9674426B2 (en) 2015-06-07 2015-09-24 Devices and methods for capturing and interacting with enhanced digital images

Publications (1)

Publication Number Publication Date
CN205788149U true CN205788149U (zh) 2016-12-07

Family

ID=56409314

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201610342151.4A Active CN106227439B (zh) 2015-06-07 2016-05-20 用于捕获增强型数字图像和与之交互的设备和方法
CN201620470247.4U Active CN205788149U (zh) 2015-06-07 2016-05-20 电子设备以及用于显示图像的装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201610342151.4A Active CN106227439B (zh) 2015-06-07 2016-05-20 用于捕获增强型数字图像和与之交互的设备和方法

Country Status (5)

Country Link
US (1) US9674426B2 (zh)
CN (2) CN106227439B (zh)
AU (1) AU2016100648B4 (zh)
DE (1) DE202016003234U1 (zh)
DK (1) DK201500584A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227439A (zh) * 2015-06-07 2016-12-14 苹果公司 用于捕获增强型数字图像和与之交互的设备和方法
CN106598437A (zh) * 2016-12-22 2017-04-26 东方网力科技股份有限公司 一种电子地图的缩放显示方法和装置
CN110008364A (zh) * 2019-03-25 2019-07-12 联想(北京)有限公司 图像处理方法、装置和系统
CN110032397A (zh) * 2018-01-10 2019-07-19 广东欧珀移动通信有限公司 应用处理方法和装置、电子设备、计算机可读存储介质
CN111511002A (zh) * 2020-04-23 2020-08-07 Oppo广东移动通信有限公司 检测帧率的调节方法和装置、终端和可读存储介质

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
EP2847657B1 (en) 2012-05-09 2016-08-10 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
AU2013259614B2 (en) 2012-05-09 2016-08-25 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
CN108241465B (zh) 2012-05-09 2021-03-09 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
CN104487928B (zh) 2012-05-09 2018-07-06 苹果公司 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
AU2013368443B2 (en) 2012-12-29 2016-03-24 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US10600245B1 (en) 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
TW201743241A (zh) * 2016-06-01 2017-12-16 原相科技股份有限公司 可攜式電子裝置及其運作方法
US10757377B2 (en) 2016-06-01 2020-08-25 Pixart Imaging Inc. Surveillance system and operation method thereof
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
CN107786721A (zh) * 2016-08-26 2018-03-09 华为终端(东莞)有限公司 终端的控制方法、终端、智能穿戴设备和系统
US10614606B2 (en) * 2016-11-30 2020-04-07 Ricoh Company, Ltd. Information processing apparatus for creating an animation from a spherical image
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US10690555B2 (en) 2017-10-17 2020-06-23 Sikorsky Aircraft Corporation Composite airspeed indicator display for compound aircrafts
CN109947236A (zh) * 2017-12-21 2019-06-28 艾力普提实验室公司 用于控制电子设备的显示器上的内容的方法和设备
USD888069S1 (en) * 2018-02-08 2020-06-23 Sikorsky Aircraft Corporation Flight display screen or portion thereof with graphical user interface including a composite indicator
USD881206S1 (en) * 2018-02-08 2020-04-14 Sikorsky Aircraft Corporation Flight display screen or portion thereof with graphical user interface including a composite indicator
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10813169B2 (en) 2018-03-22 2020-10-20 GoTenna, Inc. Mesh network deployment kit
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
CN108898062B (zh) * 2018-05-31 2021-12-10 电子科技大学 一种基于改进的信号片段提取算法的手部动作识别方法
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
JP2020086412A (ja) * 2018-11-30 2020-06-04 株式会社リコー 情報処理システム、プログラムおよび情報処理方法
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US10715412B1 (en) * 2020-03-05 2020-07-14 Gigantic Ltd. Systems and methods for monitoring of overall latency
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
CN114979091B (zh) * 2022-07-28 2022-11-11 腾讯科技(深圳)有限公司 一种数据传输的方法、相关装置、设备以及存储介质

Family Cites Families (810)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4903201A (en) 1983-11-03 1990-02-20 World Energy Exchange Corporation Automated futures trading exchange
US5270922A (en) 1984-06-29 1993-12-14 Merrill Lynch & Company, Inc. System for distributing, processing and displaying financial information
US4674044A (en) 1985-01-30 1987-06-16 Merrill Lynch, Pierce, Fenner & Smith, Inc. Automated securities trading system
US4750135A (en) 1986-05-01 1988-06-07 Reuters Limited Method for dynamically creating a receiver definable local trading instrument displayable record from a remotely transmitted trading instrument common data stream
US5038284A (en) 1988-02-17 1991-08-06 Kramer Robert M Method and apparatus relating to conducting trading transactions with portable trading stations
AU624837B2 (en) 1988-05-27 1992-06-25 Global 360, Inc. Document folder icon for display in a data processing system
EP0388162A3 (en) 1989-03-14 1993-03-03 Chicago Board Of Trade Apparatus for market trading
AU5281590A (en) 1989-03-14 1990-10-09 Chicago Board Of Trade Simulated pit trading system
WO1990011571A1 (en) 1989-03-28 1990-10-04 Chicago Board Of Trade Simulated live market trading system
US5077665A (en) 1989-05-25 1991-12-31 Reuters Limited Distributed matching system
US5136501A (en) 1989-05-26 1992-08-04 Reuters Limited Anonymous matching system
US5101353A (en) 1989-05-31 1992-03-31 Lattice Investments, Inc. Automated system for providing liquidity to securities markets
US5297031A (en) 1990-03-06 1994-03-22 Chicago Board Of Trade Method and apparatus for order management by market brokers
GB9027249D0 (en) 1990-12-17 1991-02-06 Reuters Ltd Offer matching system
US5297032A (en) 1991-02-01 1994-03-22 Merrill Lynch, Pierce, Fenner & Smith Incorporated Securities trading workstation
US6208271B1 (en) 1998-09-04 2001-03-27 Brad A. Armstrong Remote controller with analog button(s)
US6347997B1 (en) 1997-10-01 2002-02-19 Brad A. Armstrong Analog controls housed with electronic displays
US5717725A (en) 1992-03-12 1998-02-10 Ntp Incorporated System for wireless transmission and receiving of information through a computer bus interface and method of operation
US5544262A (en) 1992-04-07 1996-08-06 Apple Computer, Inc. Method and apparatus for processing graphically input equations
DE69324067T2 (de) 1992-06-08 1999-07-15 Synaptics Inc Objekt-Positionsdetektor
JPH0651738A (ja) 1992-07-27 1994-02-25 Canon Inc コンピュータシステムの情報表示装置
US5455965A (en) 1993-02-26 1995-10-03 Motorola, Inc. Method for determining and utilizing simulcast transmit times
US5555354A (en) 1993-03-23 1996-09-10 Silicon Graphics Inc. Method and apparatus for navigation within three-dimensional information landscape
US5463722A (en) 1993-07-23 1995-10-31 Apple Computer, Inc. Automatic alignment of objects in two-dimensional and three-dimensional display space using an alignment field gradient
BE1007462A3 (nl) 1993-08-26 1995-07-04 Philips Electronics Nv Dataverwerkings inrichting met aanraakscherm en krachtopnemer.
JPH07151512A (ja) 1993-10-05 1995-06-16 Mitsutoyo Corp 三次元測定機の操作装置
CA2119921C (en) 1994-03-23 2009-09-29 Sydney H. Belzberg Computerized stock exchange trading system
AU2241195A (en) 1994-04-06 1995-10-30 Morgan Stanley Group Inc. Data processing system and method for financial debt instruments
GB9416673D0 (en) 1994-08-17 1994-10-12 Reuters Ltd Data exchange filtering system
US5559301A (en) 1994-09-15 1996-09-24 Korg, Inc. Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems
US5797002A (en) 1994-09-20 1998-08-18 Papyrus Technology Corp. Two-way wireless system for financial industry transactions
US5774877A (en) 1994-09-20 1998-06-30 Papyrus Technology Corp. Two-way wireless system for financial industry transactions
US5689651A (en) 1994-10-13 1997-11-18 Lozman; Fane System for processing and displaying financial information
WO1996014908A1 (en) 1994-11-14 1996-05-23 Catapult Entertainment, Inc. Method and apparatus for synchronizing the execution of multiple video game systems in a networked environment
US5805144A (en) 1994-12-14 1998-09-08 Dell Usa, L.P. Mouse pointing device having integrated touchpad
US5657246A (en) 1995-03-07 1997-08-12 Vtel Corporation Method and apparatus for a video conference user interface
IL117424A (en) 1995-04-27 1999-09-22 Optimark Tech Inc Crossing network utilizing satisfaction density profile
US5845266A (en) 1995-12-12 1998-12-01 Optimark Technologies, Inc. Crossing network utilizing satisfaction density profile with price discovery features
US5793360A (en) 1995-05-05 1998-08-11 Wacom Co., Ltd. Digitizer eraser system and method
US6072488A (en) 1995-05-05 2000-06-06 Apple Computer, Inc. Systems and methods for replacing open windows in a graphical user interface
RU2190877C2 (ru) 1995-08-28 2002-10-10 И-Би-Эс Дилинг Ресорсиз, Инк. Анонимная система торговли с усовершенствованными возможностями ввода котировок
US5844560A (en) 1995-09-29 1998-12-01 Intel Corporation Graphical user interface control element
JP3417741B2 (ja) 1995-10-06 2003-06-16 富士通株式会社 取引制御システム
US5910882A (en) 1995-11-14 1999-06-08 Garmin Corporation Portable electronic device for use in combination portable and fixed mount applications
US5801692A (en) 1995-11-30 1998-09-01 Microsoft Corporation Audio-visual user interface controls
US5719796A (en) 1995-12-04 1998-02-17 Advanced Micro Devices, Inc. System for monitoring and analyzing manufacturing processes using statistical simulation with single step feedback
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5695400A (en) 1996-01-30 1997-12-09 Boxer Jam Productions Method of managing multi-player game playing over a network
US5946647A (en) 1996-02-01 1999-08-31 Apple Computer, Inc. System and method for performing an action on a structure in computer-generated data
US5820463A (en) 1996-02-06 1998-10-13 Bell Atlantic Network Services, Inc. Method and apparatus for multi-player gaming over a network
US5880733A (en) 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
US5924083A (en) 1996-05-29 1999-07-13 Geneva Branch Of Reuters Transaction Services Limited Distributed matching system for displaying a book of credit filtered bids and offers
JP4484255B2 (ja) 1996-06-11 2010-06-16 株式会社日立製作所 タッチパネルを備えた情報処理装置および情報処理方法
US6014643A (en) 1996-06-28 2000-01-11 Minton; Vernon F. Interactive securities trading system
US8674932B2 (en) 1996-07-05 2014-03-18 Anascape, Ltd. Image controller
US6208329B1 (en) 1996-08-13 2001-03-27 Lsi Logic Corporation Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device
US6247000B1 (en) 1996-08-21 2001-06-12 Crossmar, Inc. Method and system for confirmation and settlement for financial transactions matching
US6195647B1 (en) 1996-09-26 2001-02-27 The Nasdaq Stock Market, Inc. On-line transaction processing system for security trading
US5963923A (en) 1996-11-12 1999-10-05 Garber; Howard B. System and method for trading having a principal market maker
EP0859307A1 (en) 1997-02-18 1998-08-19 International Business Machines Corporation Control mechanism for graphical user interface
US6954899B1 (en) 1997-04-14 2005-10-11 Novint Technologies, Inc. Human-computer interface including haptically controlled interactions
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
EP0979479A1 (en) 1997-04-30 2000-02-16 Roderick Malcolm Gordon Lawrie Network computer trading system
US6266684B1 (en) 1997-08-06 2001-07-24 Adobe Systems Incorporated Creating and saving multi-frame web pages
US6411998B1 (en) 1997-09-08 2002-06-25 International Business Machines Corporation World wide web internet delay monitor
US6002397A (en) 1997-09-30 1999-12-14 International Business Machines Corporation Window hatches in graphical user interface
US6456778B2 (en) 1997-10-01 2002-09-24 Brad A. Armstrong Analog controls housed with electronic displays for video recorders and cameras
US6532000B2 (en) 1997-10-01 2003-03-11 Brad A. Armstrong Analog controls housed with electronic displays for global positioning systems
US6317727B1 (en) 1997-10-14 2001-11-13 Blackbird Holdings, Inc. Systems, methods and computer program products for monitoring credit risks in electronic trading systems
US6131087A (en) 1997-11-05 2000-10-10 The Planning Solutions Group, Inc. Method for automatically identifying, matching, and near-matching buyers and sellers in electronic market transactions
US6448977B1 (en) 1997-11-14 2002-09-10 Immersion Corporation Textures and other spatial sensations for a relative haptic interface device
US6088019A (en) 1998-06-23 2000-07-11 Immersion Corporation Low cost force feedback device with actuator for non-primary axis
WO1999030259A1 (fr) 1997-12-08 1999-06-17 Nippon Steel Corporation Appareil, systeme et procede d'echange de biens, et support de donnees
US6035287A (en) 1997-12-17 2000-03-07 Omega Consulting, Inc. Method and apparatus for bundled asset trading
US6088027A (en) 1998-01-08 2000-07-11 Macromedia, Inc. Method and apparatus for screen object manipulation
JPH11203044A (ja) 1998-01-16 1999-07-30 Sony Corp 情報処理システム
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
WO1999038149A1 (en) 1998-01-26 1999-07-29 Wayne Westerman Method and apparatus for integrating manual input
US6219034B1 (en) 1998-02-23 2001-04-17 Kristofer E. Elbing Tactile computer interface
US6211880B1 (en) 1998-04-13 2001-04-03 Albert Joseph Impink, Jr. Display apparatus
US6180894B1 (en) 1998-05-07 2001-01-30 Aiptek International Inc. Dual mode digitizer tablet system
US6208340B1 (en) 1998-05-26 2001-03-27 International Business Machines Corporation Graphical user interface including a drop-down widget that permits a plurality of choices to be selected in response to a single selection of the drop-down widget
JPH11355617A (ja) 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 画像表示器付きカメラ
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6563487B2 (en) 1998-06-23 2003-05-13 Immersion Corporation Haptic feedback for directional control pads
US6229542B1 (en) 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
US6243080B1 (en) 1998-07-14 2001-06-05 Ericsson Inc. Touch-sensitive panel with selector
AU5677599A (en) 1998-08-21 2000-03-14 Marketxt, Inc. A real-time computerized stock trading system
US6326956B1 (en) 1998-08-24 2001-12-04 Intertactile Technologies Corporation Circuit control devices utilizing electronic display screen light
DE19849460B4 (de) 1998-10-28 2009-11-05 Völckers, Oliver Numerische digitale Telefontastatur für ein Telefongerät mit einem Display und Verfahren zur schnellen Textauswahl aus einer Liste mittels der numerischen Telefontastatur
US6405180B2 (en) 1998-11-05 2002-06-11 International Securities Exchange, Llc Automated exchange for matching bids between a party and a counterparty based on a relationship between the counterparty and the exchange
US6377940B2 (en) 1998-11-05 2002-04-23 International Securities Exchange, Llc Method and apparatus for setting a price for a security on an automated exchange based on a comparison of prices on other exchanges
JP2000148348A (ja) 1998-11-13 2000-05-26 Internatl Business Mach Corp <Ibm> 起動中のアプリケーション・プログラムを容易に識別し、かつ終了させることができる方法およびシステム
GB2361836B (en) 1998-11-24 2004-03-24 Niksun Inc Apparatus and method for collecting and analyzing communications data
US6252594B1 (en) 1998-12-11 2001-06-26 International Business Machines Corporation Method and system for aiding a user in scrolling through a document using animation, voice cues and a dockable scroll bar
US6489975B1 (en) 1998-12-14 2002-12-03 International Business Machines Corporation System and method for improved navigation between open windows in an application program using window tabs
US6396962B1 (en) 1999-01-29 2002-05-28 Sony Corporation System and method for providing zooming video
US6512761B1 (en) 1999-02-02 2003-01-28 3Com Corporation System for adjusting billing for real-time media transmissions based on delay
US6272474B1 (en) 1999-02-08 2001-08-07 Crisostomo B. Garcia Method for monitoring and trading stocks via the internet displaying bid/ask trade bars
US6551357B1 (en) 1999-02-12 2003-04-22 International Business Machines Corporation Method, system, and program for storing and retrieving markings for display to an electronic media file
EP1028583A1 (en) 1999-02-12 2000-08-16 Hewlett-Packard Company Digital camera with sound recording
EP1208412A2 (en) 1999-02-26 2002-05-29 Reveo, Inc. Globally time-synchronized systems, devices and methods
US20020026321A1 (en) 1999-02-26 2002-02-28 Sadeg M. Faris Internet-based system and method for fairly and securely enabling timed-constrained competition using globally time-sychronized client subsystems and information servers having microsecond client-event resolution
WO2000052619A1 (en) 1999-03-01 2000-09-08 Wit Capital Corporation A system and method for conducting securities transactions over a computer network
US6408282B1 (en) 1999-03-01 2002-06-18 Wit Capital Corp. System and method for conducting securities transactions over a computer network
US7212999B2 (en) 1999-04-09 2007-05-01 Trading Technologies International, Inc. User interface for an electronic trading system
US6278982B1 (en) 1999-04-21 2001-08-21 Lava Trading Inc. Securities trading system for consolidation of trading on multiple ECNS and electronic exchanges
WO2000065510A1 (en) 1999-04-22 2000-11-02 Trading Technologies, Inc. Electronic securities trading system
US6227743B1 (en) 1999-07-01 2001-05-08 Karl A. Robb Pen cap stylus for use with touch screens
US6904405B2 (en) 1999-07-17 2005-06-07 Edwin A. Suominen Message recognition using shared language model
US6396523B1 (en) 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
US6459424B1 (en) 1999-08-10 2002-10-01 Hewlett-Packard Company Touch-sensitive input screen having regional sensitivity and resolution properties
AU1250001A (en) 1999-08-30 2001-03-26 Epit Inc. User interface for semi-fungible trading
US7685048B1 (en) 1999-09-01 2010-03-23 Bloomberg L.P. Electronic trading system for forwards spread trades
US6459442B1 (en) 1999-09-10 2002-10-01 Xerox Corporation System for applying application behaviors to freeform data
US7181424B1 (en) 1999-09-23 2007-02-20 The Nasdaq Stock Market, Inc. Montage for automated market system
US8311926B1 (en) 1999-09-23 2012-11-13 The Nasdaq Omx Group, Inc. Montage for automated market system
US8239303B2 (en) 1999-09-23 2012-08-07 The Nasdaq Omx Group, Inc. Match-off of order flow in electronic market system
US6377636B1 (en) 1999-11-02 2002-04-23 Iospan Wirless, Inc. Method and wireless communications system using coordinated transmission and training for interference mitigation
US20020023038A1 (en) 1999-12-03 2002-02-21 Fritsch Daniel Scott Computerized system and method for conducting an online virtual auction
US20020055899A1 (en) 1999-12-06 2002-05-09 Williams Joseph C. Display system and method for displaying and organizing financial information
US6664991B1 (en) 2000-01-06 2003-12-16 Microsoft Corporation Method and apparatus for providing context menus on a pen-based device
US6661438B1 (en) 2000-01-18 2003-12-09 Seiko Epson Corporation Display apparatus and portable information processing apparatus
JP2001202192A (ja) 2000-01-18 2001-07-27 Sony Corp 情報処理装置及びその方法並びにプログラム格納媒体
US6822635B2 (en) 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US7138983B2 (en) 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
CA2400037A1 (en) 2000-02-14 2001-08-23 Adriana Guzman System and method for graphical programming
GB2366630A (en) 2000-02-17 2002-03-13 Gold On Line Trading Ltd Internet Trading System
US6772132B1 (en) 2000-03-02 2004-08-03 Trading Technologies International, Inc. Click based trading with intuitive grid display of market depth
US20020035534A1 (en) 2000-05-04 2002-03-21 Buist Walter D. Method and apparatus for auctioning securities
US7246092B1 (en) 2000-05-12 2007-07-17 The Nasdaq Stock Market, Inc. Montage for an electronic market
US6831666B1 (en) 2000-06-14 2004-12-14 Canon Kabushiki Kaisha Application selection window in a windows operation system
JP2002041023A (ja) 2000-07-06 2002-02-08 Internatl Business Mach Corp <Ibm> コンピュータシステム、表示制御装置、ディスプレイ装置、表示制御方法、記憶媒体及びプログラム伝送装置
KR20020007860A (ko) 2000-07-19 2002-01-29 백승헌 인터넷상의 시간보정 방법 및 이를 이용한 상거래시점관리 방법
US6583798B1 (en) 2000-07-21 2003-06-24 Microsoft Corporation On-object user interface
US20020015064A1 (en) 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
JP3949912B2 (ja) 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
US8924277B2 (en) 2000-08-17 2014-12-30 Nyse Group, Inc. Method and system for automatic execution of a securities transaction
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US6891551B2 (en) 2000-11-10 2005-05-10 Microsoft Corporation Selection handles in editing electronic documents
US6590568B1 (en) 2000-11-20 2003-07-08 Nokia Corporation Touch screen drag and drop input technique
DE10059906A1 (de) 2000-12-01 2002-06-06 Bs Biometric Systems Gmbh Druckempfindliche Fläche eines Bildschirms oder Displays
US20020077117A1 (en) 2000-12-15 2002-06-20 Jocelyn Cloutier Synchronous transmission of data with network remote control
GB2370739A (en) 2000-12-27 2002-07-03 Nokia Corp Flashlight cursor for set-top boxes
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20050183017A1 (en) 2001-01-31 2005-08-18 Microsoft Corporation Seekbar in taskbar player visualization mode
US20020107748A1 (en) 2001-02-05 2002-08-08 International Business Machines Corporation Method and system for decentralized order matching among individual marketplaces
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20020120837A1 (en) 2001-02-28 2002-08-29 Maxemchuk Nicholas Frank Distributed internet multicast system for the stock market
JP2002268867A (ja) 2001-03-13 2002-09-20 Sony Corp 表示装置及び表示方法、プログラム記録媒体並びにプログラム
US20020178102A1 (en) 2001-03-15 2002-11-28 Larry Scheinberg Margin release system for an electronic-based market
JP2002286489A (ja) 2001-03-28 2002-10-03 Clarion Co Ltd カーナビゲーション装置及び方法並びにカーナビゲーション用ソフトウェア
US7012595B2 (en) 2001-03-30 2006-03-14 Koninklijke Philips Electronics N.V. Handheld electronic device with touch pad
US20020149630A1 (en) 2001-04-16 2002-10-17 Parascript Llc Providing hand-written and hand-drawn electronic mail service
US7134093B2 (en) 2001-04-18 2006-11-07 International Business Machines Corporation Graphical user interface for direct control of display of data
US20020161693A1 (en) 2001-04-30 2002-10-31 Greenwald Jamie A. Automated over-the-counter derivatives trading system
TW521205B (en) 2001-06-05 2003-02-21 Compal Electronics Inc Touch screen capable of controlling amplification with pressure
US20050134578A1 (en) 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
JP2003084744A (ja) 2001-09-10 2003-03-19 Sharp Corp エミュレーション装置、エミュレーション方法及びその方法を実行するプログラム並びにそのプログラムを記録した記録媒体
US7103848B2 (en) 2001-09-13 2006-09-05 International Business Machines Corporation Handheld electronic book reader with annotation and usage tracking capabilities
US6965645B2 (en) 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
US8001189B2 (en) 2001-10-16 2011-08-16 Microsoft Corporation Routing of network messages
KR20090096559A (ko) 2001-11-01 2009-09-10 임머숀 코퍼레이션 촉각을 제공하기 위한 방법 및 장치
JP2003157131A (ja) 2001-11-22 2003-05-30 Nippon Telegr & Teleph Corp <Ntt> 入力方法、表示方法、メディア情報合成表示方法、入力装置、メディア情報合成表示装置、入力プログラム、メディア情報合成表示プログラム、これらのプログラムを記録した記録媒体
JP2003162355A (ja) 2001-11-26 2003-06-06 Sony Corp タスクの表示切り替え方法及び携帯機器及び携帯通信機器
JP2003186597A (ja) 2001-12-13 2003-07-04 Samsung Yokohama Research Institute Co Ltd 携帯端末装置
US7346855B2 (en) 2001-12-21 2008-03-18 Microsoft Corporation Method and system for switching between multiple computer applications
US20030184574A1 (en) 2002-02-12 2003-10-02 Phillips James V. Touch screen interface with haptic feedback device
US6888537B2 (en) 2002-02-13 2005-05-03 Siemens Technology-To-Business Center, Llc Configurable industrial input devices that use electrically conductive elastomer
US7114091B2 (en) 2002-03-18 2006-09-26 National Instruments Corporation Synchronization of distributed systems
US20030189647A1 (en) 2002-04-05 2003-10-09 Kang Beng Hong Alex Method of taking pictures
US7178049B2 (en) 2002-04-24 2007-02-13 Medius, Inc. Method for multi-tasking multiple Java virtual machines in a secure environment
US20030222915A1 (en) 2002-05-30 2003-12-04 International Business Machines Corporation Data processor controlled display system with drag and drop movement of displayed items from source to destination screen positions and interactive modification of dragged items during the movement
US7801796B2 (en) 2002-06-05 2010-09-21 The Nasdaq Omx Group, Inc. Message prioritization process and method
US7259752B1 (en) 2002-06-28 2007-08-21 Microsoft Corporation Method and system for editing electronic ink
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP2004054861A (ja) 2002-07-16 2004-02-19 Sanee Denki Kk タッチ式マウス
US20040056849A1 (en) 2002-07-25 2004-03-25 Andrew Lohbihler Method and apparatus for powering, detecting and locating multiple touch input devices on a touch screen
US7549127B2 (en) 2002-08-01 2009-06-16 Realnetworks, Inc. Method and apparatus for resizing video content displayed within a graphical user interface
JP4115198B2 (ja) 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
JP4500485B2 (ja) 2002-08-28 2010-07-14 株式会社日立製作所 タッチパネルを備えた表示装置
US7739604B1 (en) 2002-09-25 2010-06-15 Apple Inc. Method and apparatus for managing windows
US20040138849A1 (en) 2002-09-30 2004-07-15 Albrecht Schmidt Load sensing surface as pointing device
EP1406150A1 (en) 2002-10-01 2004-04-07 Sony Ericsson Mobile Communications AB Tactile feedback method and device and portable device incorporating same
US7752115B2 (en) 2002-10-02 2010-07-06 Trading Technologies International, Inc. Method and apparatus for a fair exchange
JP4173718B2 (ja) 2002-10-31 2008-10-29 富士通株式会社 ウィンドウ切替装置及びウィンドウ切替プログラム
US20070128899A1 (en) 2003-01-12 2007-06-07 Yaron Mayer System and method for improving the efficiency, comfort, and/or reliability in Operating Systems, such as for example Windows
US7224362B2 (en) 2003-01-30 2007-05-29 Agilent Technologies, Inc. Systems and methods for providing visualization and network diagrams
US7685538B2 (en) 2003-01-31 2010-03-23 Wacom Co., Ltd. Method of triggering functions in a computer application using a digitizer having a stylus and a digitizer system
US20040155909A1 (en) 2003-02-07 2004-08-12 Sun Microsystems, Inc. Scroll tray mechanism for cellular telephone
US7369102B2 (en) 2003-03-04 2008-05-06 Microsoft Corporation System and method for navigating a graphical user interface on a smaller display
US7185291B2 (en) 2003-03-04 2007-02-27 Institute For Information Industry Computer with a touch screen
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7380218B2 (en) 2003-03-27 2008-05-27 International Business Machines Corporation Method and apparatus for managing windows
GB0312465D0 (en) 2003-05-30 2003-07-09 Therefore Ltd A data input method for a computing device
US7159189B2 (en) 2003-06-13 2007-01-02 Alphabase Systems, Inc. Method and system for controlling cascaded windows on a GUI desktop on a computer
EP1491990B1 (en) 2003-06-20 2010-02-17 Apple Inc. Graphical user interface system and method of displaying objects in a graphical user interface
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7036088B2 (en) 2003-07-24 2006-04-25 Sap Ag Multi-modal method for application swapping
KR100580174B1 (ko) 2003-08-21 2006-05-16 삼성전자주식회사 회전 가능한 디스플레이 장치 및 화면 조정 방법
US9024884B2 (en) 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
JP2005092386A (ja) 2003-09-16 2005-04-07 Sony Corp 画像選択装置および画像選択方法
KR100597588B1 (ko) 2003-10-02 2006-07-06 한국전자통신연구원 우선순위기반 능동 시험패킷을 이용한 노드간 경로특성측정방법
JP2005135106A (ja) 2003-10-29 2005-05-26 Sony Corp 表示画像制御装置及び方法
US20050183035A1 (en) 2003-11-20 2005-08-18 Ringel Meredith J. Conflict resolution for graphic multi-user interface
US20050110777A1 (en) 2003-11-25 2005-05-26 Geaghan Bernard O. Light-emitting stylus and user input device using same
US8164573B2 (en) 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
JP2005157842A (ja) 2003-11-27 2005-06-16 Fujitsu Ltd ブラウザプログラム、ブラウジング方法、及びブラウジング装置
CA2548598A1 (en) 2003-12-01 2005-06-16 Research In Motion Limited Previewing a new event on a small screen device
EP1538821B1 (en) 2003-12-01 2007-08-22 Sony Ericsson Mobile Communications AB Camera for recording of an image sequence
US20050125742A1 (en) 2003-12-09 2005-06-09 International Business Machines Corporation Non-overlapping graphical user interface workspace
US7774721B2 (en) 2003-12-15 2010-08-10 Microsoft Corporation Intelligent backward resource navigation
US7085590B2 (en) 2003-12-31 2006-08-01 Sony Ericsson Mobile Communications Ab Mobile terminal with ergonomic imaging functions
EP1557744B1 (en) 2004-01-20 2008-04-16 Sony Deutschland GmbH Haptic key controlled data input
US7966352B2 (en) 2004-01-26 2011-06-21 Microsoft Corporation Context harvesting from selected content
JP4790990B2 (ja) 2004-01-27 2011-10-12 京セラ株式会社 携帯端末
US7441204B2 (en) 2004-02-06 2008-10-21 Microsoft Corporation Method and system for automatically displaying content of a window on a display that has changed orientation
CA2557507A1 (en) 2004-02-25 2005-09-09 Xplore Technologies Corporation Apparatus providing multi-mode digital input
KR100611182B1 (ko) 2004-02-27 2006-08-10 삼성전자주식회사 회전상태에 따라 메뉴표시상태를 변경하는 휴대형전자기기 및 그 방법
US7180531B2 (en) 2004-02-27 2007-02-20 Microsoft Corporation Method and apparatus for enabling application program compatibility with display devices having improved pixel density
US20050190280A1 (en) * 2004-02-27 2005-09-01 Haas William R. Method and apparatus for a digital camera scrolling slideshow
US7788595B2 (en) 2004-03-08 2010-08-31 Sap Ag Method and system for switching among management system applications
WO2005086854A2 (en) 2004-03-09 2005-09-22 Freedom Scientific, Inc. Low vision enhancement for graphic user interface
GB2412831A (en) 2004-03-30 2005-10-05 Univ Newcastle Highlighting important information by blurring less important information
US20050223338A1 (en) 2004-04-05 2005-10-06 Nokia Corporation Animated user-interface in electronic devices
JP4589308B2 (ja) 2004-04-05 2010-12-01 パナソニック株式会社 表示画面管理装置
US20050229112A1 (en) 2004-04-13 2005-10-13 Clay Timothy M Method and system for conveying an image position
JP2005309933A (ja) 2004-04-23 2005-11-04 Canon Inc 拡張制御装置および画像処理システムおよびアプリケーションアイコン表示方法およびプログラムおよび記憶媒体
US7694236B2 (en) 2004-04-23 2010-04-06 Microsoft Corporation Stack icons representing multiple objects
US7787026B1 (en) 2004-04-28 2010-08-31 Media Tek Singapore Pte Ltd. Continuous burst mode digital camera
JP2007536669A (ja) 2004-05-05 2007-12-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ メディアアイテムの閲覧
US8453065B2 (en) 2004-06-25 2013-05-28 Apple Inc. Preview and installation of user interface elements in a display environment
US8281241B2 (en) 2004-06-28 2012-10-02 Nokia Corporation Electronic device and method for providing extended user interface
US8046712B2 (en) 2004-06-29 2011-10-25 Acd Systems International Inc. Management of multiple window panels with a graphical user interface
US7743348B2 (en) 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US20060020904A1 (en) 2004-07-09 2006-01-26 Antti Aaltonen Stripe user interface
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
CN100585546C (zh) 2004-08-02 2010-01-27 皇家飞利浦电子股份有限公司 数据处理系统、压力敏感触摸屏以及便于用户与数据处理系统相互作用的方法
EP1776630A2 (en) 2004-08-02 2007-04-25 Koninklijke Philips Electronics N.V. Pressure-controlled navigating in a touch screen
US7724242B2 (en) 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
GB2417176A (en) 2004-08-12 2006-02-15 Ibm Mouse cursor display
US20060041846A1 (en) 2004-08-19 2006-02-23 International Business Machines Corporation Method of window management for a windowing system
FR2874432A1 (fr) 2004-08-20 2006-02-24 Gervais Danone Sa Procede d'analyse de produits industriels alimentaires, cosmetiques et/ou d'hygiene, interface de mesure pour la mise en oeuvre du procede et systeme electronique de mise en oeuvre de l'interface
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
US20060067654A1 (en) 2004-09-24 2006-03-30 Magix Ag Graphical user interface adaptable to multiple display devices
JP2006091446A (ja) 2004-09-24 2006-04-06 Fuji Photo Film Co Ltd カメラ
US8264465B2 (en) 2004-10-08 2012-09-11 Immersion Corporation Haptic feedback for button and scrolling action simulation in touch input devices
WO2006043209A1 (en) 2004-10-19 2006-04-27 Koninklijke Philips Electronics N.V. Master substrate and method of manufacturing a high-density relief structure
US8677274B2 (en) 2004-11-10 2014-03-18 Apple Inc. Highlighting items for search results
US20060107226A1 (en) 2004-11-16 2006-05-18 Microsoft Corporation Sidebar autohide to desktop
EP1815424B1 (en) 2004-11-16 2019-01-09 Koninklijke Philips N.V. Touchless manipulation of images for regional enhancement
US7847789B2 (en) 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US20060136834A1 (en) 2004-12-15 2006-06-22 Jiangen Cao Scrollable toolbar with tool tip on small screens
US7458038B2 (en) 2004-12-20 2008-11-25 Microsoft Corporation Selection indication fields
US7629966B2 (en) 2004-12-21 2009-12-08 Microsoft Corporation Hard tap
US7619616B2 (en) 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
US7683889B2 (en) 2004-12-21 2010-03-23 Microsoft Corporation Pressure based selection
JP4949857B2 (ja) 2005-01-05 2012-06-13 パナソニック株式会社 スクリーン表示装置
US8341541B2 (en) 2005-01-18 2012-12-25 Microsoft Corporation System and method for visually browsing of open windows
US8464176B2 (en) 2005-01-19 2013-06-11 Microsoft Corporation Dynamic stacking and expansion of visual items
KR102358378B1 (ko) 2005-03-04 2022-02-08 애플 인크. 다기능 휴대용 장치
US20060213754A1 (en) 2005-03-17 2006-09-28 Microsoft Corporation Method and system for computer application program task switching via a single hardware button
US7454702B2 (en) 2005-03-21 2008-11-18 Microsoft Corporation Tool for selecting ink and other objects in an electronic document
US7661069B2 (en) 2005-03-31 2010-02-09 Microsoft Corporation System and method for visually expressing user interface elements
US8023568B2 (en) 2005-04-15 2011-09-20 Avid Technology, Inc. Capture, editing and encoding of motion pictures encoded with repeating fields or frames
US7673255B2 (en) 2005-04-22 2010-03-02 Microsoft Corporation Interface and system for manipulating thumbnails of live windows in a window manager
US7609178B2 (en) 2006-04-20 2009-10-27 Pressure Profile Systems, Inc. Reconfigurable tactile sensor input device
US9785329B2 (en) 2005-05-23 2017-10-10 Nokia Technologies Oy Pocket computer and associated methods
US20070024646A1 (en) 2005-05-23 2007-02-01 Kalle Saarinen Portable electronic apparatus and associated method
US7710397B2 (en) 2005-06-03 2010-05-04 Apple Inc. Mouse with improved input mechanisms using touch sensors
JP2006345209A (ja) 2005-06-08 2006-12-21 Sony Corp 入力装置、情報処理装置、情報処理方法、及びプログラム
TWI296395B (en) 2005-06-24 2008-05-01 Benq Corp Method for zooming image on touch screen
US20070004461A1 (en) 2005-06-30 2007-01-04 Bathina Sridhar N Terminal with messaging application
US20070004451A1 (en) 2005-06-30 2007-01-04 C Anderson Eric Controlling functions of a handheld multifunction device
CN101814005B (zh) 2005-07-22 2013-02-27 运行移动系统公司 最适宜拇指的触摸屏用户界面的系统和方法
US8049731B2 (en) 2005-07-29 2011-11-01 Interlink Electronics, Inc. System and method for implementing a control function via a sensor having a touch sensitive control input surface
JP4622727B2 (ja) 2005-07-29 2011-02-02 日本電気株式会社 適応送信タイミング制御方法、無線通信システムおよび無線通信装置
EP1920408A2 (en) 2005-08-02 2008-05-14 Ipifini, Inc. Input device having multifunctional keys
US7680513B2 (en) 2005-08-08 2010-03-16 Palm, Inc. Contact-centric user-interface features for computing devices
EP1920539A1 (en) 2005-08-26 2008-05-14 KTF Technologies, Inc. User terminal for performing a plurality of applications simultaneously
US7735018B2 (en) 2005-09-13 2010-06-08 Spacetime3D, Inc. System and method for providing three-dimensional graphical user interface
US20070152980A1 (en) 2006-01-05 2007-07-05 Kenneth Kocienda Touch Screen Keyboards for Portable Electronic Devices
US7694231B2 (en) 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
TW200715192A (en) 2005-10-07 2007-04-16 Elan Microelectronics Corp Method for a window to generate different moving speed
JP2007116384A (ja) 2005-10-20 2007-05-10 Funai Electric Co Ltd 電子番組情報表示装置
CN1955906A (zh) 2005-10-28 2007-05-02 华硕电脑股份有限公司 单键多程式的执行方法
US7725839B2 (en) 2005-11-15 2010-05-25 Microsoft Corporation Three-dimensional active file explorer
US8643605B2 (en) 2005-11-21 2014-02-04 Core Wireless Licensing S.A.R.L Gesture based document editor
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US7797642B1 (en) 2005-12-30 2010-09-14 Google Inc. Method, system, and graphical user interface for meeting-spot-related contact lists
AU2006332488A1 (en) 2005-12-30 2007-07-12 Apple Inc. Portable electronic device with multi-touch input
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US7757185B2 (en) 2006-01-06 2010-07-13 Apple Inc. Enabling and disabling hotkeys
US7603633B2 (en) 2006-01-13 2009-10-13 Microsoft Corporation Position-based multi-stroke marking menus
US7486282B2 (en) 2006-01-27 2009-02-03 Microsoft Corporation Size variant pressure eraser
US8510669B2 (en) 2006-02-06 2013-08-13 Yahoo! Inc. Method and system for presenting photos on a website
US7536654B2 (en) * 2006-02-06 2009-05-19 Microsoft Corporation Photo browse and zoom
US20110096174A1 (en) 2006-02-28 2011-04-28 King Martin T Accessing resources based on capturing information from a rendered document
US8745526B2 (en) 2006-03-14 2014-06-03 Blackberry Limited Screen display in application switching
KR100746874B1 (ko) 2006-03-16 2007-08-07 삼성전자주식회사 이동 단말기에서 터치패드를 이용한 서비스 제공 장치 및방법
GB0605587D0 (en) 2006-03-20 2006-04-26 British Broadcasting Corp Graphical user interface methods and systems
WO2007111909A2 (en) 2006-03-24 2007-10-04 Northwestern University Haptic device with indirect haptic feedback
US7925250B2 (en) 2006-03-27 2011-04-12 International Business Machines Corporation Reuse of a mobile device application in a desktop environment
JP2007264808A (ja) 2006-03-27 2007-10-11 Nikon Corp 表示入力装置及び撮像装置
US7656413B2 (en) 2006-03-29 2010-02-02 Autodesk, Inc. Large display attention focus system
US8040142B1 (en) 2006-03-31 2011-10-18 Cypress Semiconductor Corporation Touch detection techniques for capacitive touch sense systems
US7861176B2 (en) 2006-04-13 2010-12-28 Touchcommerce, Inc. Methods and systems for providing online chat
US7607088B2 (en) 2006-04-18 2009-10-20 International Business Machines Corporation Computer program product, apparatus and method for displaying a plurality of entities in a tooltip for a cell of a table
US8683362B2 (en) 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
WO2007121557A1 (en) 2006-04-21 2007-11-01 Anand Agarawala System for organizing and visualizing display objects
KR100771626B1 (ko) 2006-04-25 2007-10-31 엘지전자 주식회사 단말기 및 이를 위한 명령 입력 방법
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
JP4737539B2 (ja) 2006-05-03 2011-08-03 株式会社ソニー・コンピュータエンタテインメント マルチメディア再生装置および背景画像表示方法
US9063647B2 (en) 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US7921116B2 (en) 2006-06-16 2011-04-05 Microsoft Corporation Highly meaningful multimedia metadata creation and associations
KR101242030B1 (ko) 2006-06-22 2013-03-11 엘지디스플레이 주식회사 유기전계발광 소자
JP2008009759A (ja) 2006-06-29 2008-01-17 Toyota Motor Corp タッチパネル装置
US7880728B2 (en) 2006-06-29 2011-02-01 Microsoft Corporation Application switching via a touch screen interface
JP4751780B2 (ja) 2006-07-07 2011-08-17 株式会社エヌ・ティ・ティ・ドコモ キー入力装置
JP4583344B2 (ja) 2006-07-10 2010-11-17 シャープ株式会社 携帯電話機
JP2008033739A (ja) 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US8255815B2 (en) 2006-08-04 2012-08-28 Apple Inc. Motion picture preview icons
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US7956849B2 (en) 2006-09-06 2011-06-07 Apple Inc. Video manager for portable multifunction device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7864163B2 (en) 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US7581186B2 (en) 2006-09-11 2009-08-25 Apple Inc. Media manager with integrated browsers
US7930650B2 (en) 2006-09-11 2011-04-19 Apple Inc. User interface with menu abstractions and content abstractions
CN101146178A (zh) * 2006-09-14 2008-03-19 奥林巴斯映像株式会社 摄像机
JP5176300B2 (ja) 2006-09-22 2013-04-03 富士通株式会社 電子機器、その制御方法及びその制御プログラム
JP2008076818A (ja) 2006-09-22 2008-04-03 Fujitsu Ltd 携帯端末装置
US8245154B2 (en) 2006-11-03 2012-08-14 International Business Machines Corporation Most-recently-used task switching among parent and child windows
US20080106523A1 (en) 2006-11-07 2008-05-08 Conrad Richard H Ergonomic lift-clicking method and apparatus for actuating home switches on computer input devices
WO2008064142A2 (en) 2006-11-20 2008-05-29 Pham Don N Interactive sequential key system to input characters on small keypads
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
JP2008146453A (ja) 2006-12-12 2008-06-26 Sony Corp 映像信号出力装置、操作入力処理方法
KR20080058121A (ko) 2006-12-21 2008-06-25 삼성전자주식회사 휴대단말기에서의 촉각형 사용자 인터페이스 제공 장치 및방법
US8214768B2 (en) 2007-01-05 2012-07-03 Apple Inc. Method, system, and graphical user interface for viewing multiple application windows
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
WO2008085874A2 (en) 2007-01-05 2008-07-17 Marvell World Trade Ltd. Methods and systems for improving low-resolution video
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8082523B2 (en) 2007-01-07 2011-12-20 Apple Inc. Portable electronic device with graphical user interface supporting application switching
US9001047B2 (en) 2007-01-07 2015-04-07 Apple Inc. Modal change based on orientation of a portable multifunction device
US7978176B2 (en) 2007-01-07 2011-07-12 Apple Inc. Portrait-landscape rotation heuristics for a portable multifunction device
US20080222545A1 (en) 2007-01-07 2008-09-11 Lemay Stephen O Portable Electronic Device with a Global Setting User Interface
US20080168395A1 (en) 2007-01-07 2008-07-10 Bas Ording Positioning a Slider Icon on a Portable Multifunction Device
US7957762B2 (en) 2007-01-07 2011-06-07 Apple Inc. Using ambient light sensor to augment proximity sensor output
GB2446702A (en) 2007-02-13 2008-08-20 Qrg Ltd Touch Control Panel with Pressure Sensor
KR101450584B1 (ko) 2007-02-22 2014-10-14 삼성전자주식회사 단말의 화면 표시 방법
US8650505B2 (en) 2007-02-28 2014-02-11 Rpx Corporation Multi-state unified pie user interface
WO2008106777A1 (en) * 2007-03-02 2008-09-12 Storefront.Com Online Inc. Photo kiosk controlled by rotational hand movement
WO2008109172A1 (en) 2007-03-07 2008-09-12 Wiklof Christopher A Recorder with retrospective capture
US8352881B2 (en) 2007-03-08 2013-01-08 International Business Machines Corporation Method, apparatus and program storage device for providing customizable, immediate and radiating menus for accessing applications and actions
US7895533B2 (en) 2007-03-13 2011-02-22 Apple Inc. Interactive image thumbnails
US20080259046A1 (en) 2007-04-05 2008-10-23 Joseph Carsanaro Pressure sensitive touch pad with virtual programmable buttons for launching utility applications
US7973778B2 (en) 2007-04-16 2011-07-05 Microsoft Corporation Visual simulation of touch pressure
US8140996B2 (en) 2007-04-17 2012-03-20 QNX Software Systems Limtied System for endless loop scrolling and display
CN101290553A (zh) 2007-04-17 2008-10-22 索尼(中国)有限公司 具有显示屏的电子设备
US20100127983A1 (en) 2007-04-26 2010-05-27 Pourang Irani Pressure Augmented Mouse
US20080270910A1 (en) 2007-04-30 2008-10-30 Lukasik Derek J User selection of a remote session
JP2008283629A (ja) 2007-05-14 2008-11-20 Sony Corp 撮像装置、撮像信号処理方法、プログラム
CN201107762Y (zh) 2007-05-15 2008-08-27 宏达国际电子股份有限公司 具有可切换使用者界面以及无阻碍触控操作的电子装置
US8621348B2 (en) 2007-05-25 2013-12-31 Immersion Corporation Customizing haptic effects on an end user device
JPWO2008146784A1 (ja) 2007-05-29 2010-08-19 株式会社Access 端末装置、ヒストリ管理方法、およびヒストリ管理の為のコンピュータ使用可能な記憶媒体
JP2008305174A (ja) 2007-06-07 2008-12-18 Sony Corp 情報処理装置、情報処理方法、プログラム
US20080307359A1 (en) 2007-06-08 2008-12-11 Apple Inc. Grouping Graphical Representations of Objects in a User Interface
US8667418B2 (en) 2007-06-08 2014-03-04 Apple Inc. Object stack
US8010900B2 (en) 2007-06-08 2011-08-30 Apple Inc. User interface for electronic backup
US8745535B2 (en) 2007-06-08 2014-06-03 Apple Inc. Multi-dimensional desktop
US8381122B2 (en) 2007-06-08 2013-02-19 Apple Inc. Multi-dimensional application environment
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US8059101B2 (en) 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US8315482B2 (en) 2007-06-26 2012-11-20 Microsoft Corporation Integrated platform for user input of digital ink
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US20090046110A1 (en) 2007-08-16 2009-02-19 Motorola, Inc. Method and apparatus for manipulating a displayed image
US20110210931A1 (en) 2007-08-19 2011-09-01 Ringbow Ltd. Finger-worn device and interaction methods and communication methods
KR20090019161A (ko) 2007-08-20 2009-02-25 삼성전자주식회사 전자 장치 및 이를 조작하는 방법
KR101424259B1 (ko) 2007-08-22 2014-07-31 삼성전자주식회사 휴대단말에서 입력 피드백 제공 방법 및 장치
US20110145068A1 (en) 2007-09-17 2011-06-16 King Martin T Associating rendered advertisements with digital content
US20110035662A1 (en) 2009-02-18 2011-02-10 King Martin T Interacting with rendered documents using a multi-function mobile device, such as a mobile phone
US8098235B2 (en) 2007-09-28 2012-01-17 Immersion Corporation Multi-touch device having dynamic haptic effects
DE202008018283U1 (de) 2007-10-04 2012-07-17 Lg Electronics Inc. Menüanzeige für ein mobiles Kommunikationsendgerät
KR101570368B1 (ko) 2008-08-22 2015-11-20 엘지전자 주식회사 이동 단말기 및 그 메뉴 표시 방법
CN101414231B (zh) 2007-10-17 2011-09-21 鸿富锦精密工业(深圳)有限公司 触摸屏装置及其图像显示方法
US20090102805A1 (en) 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
DE102007052008A1 (de) 2007-10-26 2009-04-30 Andreas Steinhauser Single- oder multitouchfähiger Touchscreen oder Touchpad bestehend aus einem Array von Drucksensoren sowie Herstellung solcher Sensoren
US8024670B1 (en) 2007-10-30 2011-09-20 Intuit Inc. Workflow management using live thumbnails
WO2009059062A2 (en) 2007-10-31 2009-05-07 Stratovan Corporation Resolution independent layout
US20090140985A1 (en) 2007-11-30 2009-06-04 Eric Liu Computing device that determines and uses applied pressure from user interaction with an input interface
US20090167507A1 (en) 2007-12-07 2009-07-02 Nokia Corporation User interface
US8140974B2 (en) 2007-12-14 2012-03-20 Microsoft Corporation Presenting secondary media objects to a user
JP4605214B2 (ja) 2007-12-19 2011-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9857872B2 (en) 2007-12-31 2018-01-02 Apple Inc. Multi-touch display screen with localized tactile feedback
US8138896B2 (en) 2007-12-31 2012-03-20 Apple Inc. Tactile feedback in an electronic device
US9063627B2 (en) 2008-01-04 2015-06-23 Tactus Technology, Inc. User interface and methods
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US8423076B2 (en) 2008-02-01 2013-04-16 Lg Electronics Inc. User interface for a mobile device
US8264565B2 (en) * 2008-02-06 2012-09-11 Panasonic Corporation Image processing device and image processing method
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
KR101012300B1 (ko) 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
JP4670879B2 (ja) 2008-03-11 2011-04-13 ブラザー工業株式会社 接触入力型の情報処理装置、接触入力型の情報処理方法、及び情報処理プログラム
US20090237374A1 (en) 2008-03-20 2009-09-24 Motorola, Inc. Transparent pressure sensor and method for using
US8627231B2 (en) 2008-03-28 2014-01-07 Sprint Communications Company L.P. List-position locator
US8209628B1 (en) 2008-04-11 2012-06-26 Perceptive Pixel, Inc. Pressure-sensitive manipulation of displayed objects
US20090267906A1 (en) 2008-04-25 2009-10-29 Nokia Corporation Touch sensitive apparatus
US8159469B2 (en) 2008-05-06 2012-04-17 Hewlett-Packard Development Company, L.P. User interface for initiating activities in an electronic device
KR101461954B1 (ko) 2008-05-08 2014-11-14 엘지전자 주식회사 단말기 및 그 제어 방법
US20100138780A1 (en) 2008-05-20 2010-06-03 Adam Marano Methods and systems for using external display devices with a mobile computing device
US7958447B2 (en) 2008-05-23 2011-06-07 International Business Machines Corporation Method and system for page navigating user interfaces for electronic devices
US8099332B2 (en) 2008-06-06 2012-01-17 Apple Inc. User interface for application management for a mobile device
WO2009155981A1 (en) 2008-06-26 2009-12-30 Uiq Technology Ab Gesture on touch sensitive arrangement
WO2009158549A2 (en) 2008-06-28 2009-12-30 Apple Inc. Radial menu selection
JP4938733B2 (ja) 2008-06-30 2012-05-23 株式会社ソニー・コンピュータエンタテインメント メニュー画面表示方法およびメニュー画面表示装置
US8477228B2 (en) 2008-06-30 2013-07-02 Verizon Patent And Licensing Inc. Camera data management and user interface apparatuses, systems, and methods
EP2141574B1 (en) 2008-07-01 2017-09-27 LG Electronics Inc. Mobile terminal using proximity sensor and method of controlling the mobile terminal
US10095375B2 (en) 2008-07-09 2018-10-09 Apple Inc. Adding a contact to a home screen
US8274484B2 (en) 2008-07-18 2012-09-25 Microsoft Corporation Tracking input in a screen-reflective interface environment
KR101495559B1 (ko) 2008-07-21 2015-02-27 삼성전자주식회사 사용자 명령 입력 방법 및 그 장치
KR20100010302A (ko) 2008-07-22 2010-02-01 엘지전자 주식회사 이동단말기 및 그 메뉴 표시방법
US9176620B2 (en) 2008-07-22 2015-11-03 Lg Electronics Inc. Mobile terminal and method for displaying information list thereof
JP5100556B2 (ja) 2008-07-30 2012-12-19 キヤノン株式会社 情報処理方法及び装置
US10983665B2 (en) 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
US8604364B2 (en) 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
JP4600548B2 (ja) 2008-08-27 2010-12-15 ソニー株式会社 再生装置、再生方法、およびプログラム
US8913176B2 (en) 2008-09-05 2014-12-16 Lg Electronics Inc. Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same
US9041650B2 (en) 2008-09-18 2015-05-26 Apple Inc. Using measurement of lateral force for a tracking input device
US20100070908A1 (en) 2008-09-18 2010-03-18 Sun Microsystems, Inc. System and method for accepting or rejecting suggested text corrections
US8769427B2 (en) 2008-09-19 2014-07-01 Google Inc. Quick gesture input
KR101451667B1 (ko) 2008-09-24 2014-10-16 엘지전자 주식회사 단말기 및 그 제어 방법
US8359547B2 (en) 2008-10-01 2013-01-22 Nintendo Co., Ltd. Movable user interface indicator of at least one parameter that is adjustable with different operations for increasing and decreasing the parameter and/or methods of providing the same
US8462107B2 (en) 2008-10-03 2013-06-11 International Business Machines Corporation Pointing device and method with error prevention features
EP3654141A1 (en) 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
US9442648B2 (en) 2008-10-07 2016-09-13 Blackberry Limited Portable electronic device and method of controlling same
US20100088628A1 (en) 2008-10-07 2010-04-08 Sony Ericsson Mobile Communications Ab Live preview of open windows
US9395867B2 (en) 2008-10-08 2016-07-19 Blackberry Limited Method and system for displaying an image on an electronic device
EP2175357B1 (en) 2008-10-08 2012-11-21 Research In Motion Limited Portable electronic device and method of controlling same
US20100085314A1 (en) 2008-10-08 2010-04-08 Research In Motion Limited Portable electronic device and method of controlling same
KR100941512B1 (ko) 2008-10-15 2010-02-10 (주)엠쓰리모바일 스타일러스 펜
KR100961473B1 (ko) 2008-10-15 2010-06-08 주식회사 케이티 무선 인터넷 브라우저의 웹 페이지 내용을 메시징하는 이동단말 및 그 방법
KR101569176B1 (ko) 2008-10-30 2015-11-20 삼성전자주식회사 오브젝트 실행 방법 및 장치
CN101727268A (zh) 2008-11-03 2010-06-09 英业达股份有限公司 手持式电子装置与其程序显示切换方法
EP2187290A1 (en) 2008-11-18 2010-05-19 Studer Professional Audio GmbH Input device and method of detecting a user input with an input device
US20100123686A1 (en) 2008-11-19 2010-05-20 Sony Ericsson Mobile Communications Ab Piezoresistive force sensor integrated in a display
JP4752900B2 (ja) * 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
CA2741580C (en) 2008-11-26 2016-10-18 Research In Motion Limited Touch-sensitive display method and apparatus
US20100138776A1 (en) 2008-11-30 2010-06-03 Nokia Corporation Flick-scrolling
JP5231571B2 (ja) 2008-12-04 2013-07-10 三菱電機株式会社 表示入力装置およびナビゲーション装置
GB2478230B (en) 2008-12-15 2014-05-14 Hewlett Packard Development Co Gesture based edit mode
JP2010165337A (ja) 2008-12-15 2010-07-29 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20100149096A1 (en) 2008-12-17 2010-06-17 Migos Charles J Network management using interaction with display surface
US8547342B2 (en) 2008-12-22 2013-10-01 Verizon Patent And Licensing Inc. Gesture-based delivery from mobile device
JP4975722B2 (ja) 2008-12-22 2012-07-11 京セラ株式会社 入力装置および入力装置の制御方法
US20100156823A1 (en) 2008-12-23 2010-06-24 Research In Motion Limited Electronic device including touch-sensitive display and method of controlling same to provide tactile feedback
US8686952B2 (en) 2008-12-23 2014-04-01 Apple Inc. Multi touch with multi haptics
JP4746085B2 (ja) 2008-12-25 2011-08-10 京セラ株式会社 入力装置
JP4885938B2 (ja) 2008-12-25 2012-02-29 京セラ株式会社 入力装置
US8219927B2 (en) 2009-01-06 2012-07-10 Microsoft Corporation Revealing of truncated content on scrollable grid
JP5173870B2 (ja) 2009-01-28 2013-04-03 京セラ株式会社 入力装置
EP2214087B1 (en) 2009-01-30 2015-07-08 BlackBerry Limited A handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
US20100194693A1 (en) 2009-01-30 2010-08-05 Sony Ericsson Mobile Communications Ab Electronic apparatus, method and computer program with adaptable user interface environment
JP4723656B2 (ja) 2009-02-03 2011-07-13 京セラ株式会社 入力装置
US9176747B2 (en) 2009-02-17 2015-11-03 Sandisk Il Ltd. User-application interface
KR100993064B1 (ko) 2009-03-02 2010-11-08 주식회사 팬택 터치 스크린 적용 음원 재생 장치에서의 음원 선택 재생 방법
JP5267229B2 (ja) 2009-03-09 2013-08-21 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP5157969B2 (ja) 2009-03-09 2013-03-06 ソニー株式会社 情報処理装置、閾値設定方法及びそのプログラム
CN102349087B (zh) 2009-03-12 2015-05-06 谷歌公司 自动提供与捕获的信息例如实时捕获的信息关联的内容
US8572513B2 (en) 2009-03-16 2013-10-29 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US9875013B2 (en) 2009-03-16 2018-01-23 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US9852761B2 (en) 2009-03-16 2017-12-26 Apple Inc. Device, method, and graphical user interface for editing an audio or video attachment in an electronic message
JP5252378B2 (ja) 2009-03-26 2013-07-31 ヤマハ株式会社 ミキサ装置のウィンドウ制御方法、ミキサ装置、およびミキサ装置のウィンドウ制御プログラム
US9189124B2 (en) 2009-04-15 2015-11-17 Wyse Technology L.L.C. Custom pointer features for touch-screen on remote client devices
US20100271312A1 (en) 2009-04-22 2010-10-28 Rachid Alameh Menu Configuration System and Method for Display on an Electronic Device
WO2010122814A1 (ja) 2009-04-24 2010-10-28 京セラ株式会社 入力装置
KR20100118458A (ko) 2009-04-28 2010-11-05 엘지전자 주식회사 이미지 처리 방법 및 이를 적용한 카메라가 장착된 이동 통신 단말기
US8427503B2 (en) 2009-05-18 2013-04-23 Nokia Corporation Method, apparatus and computer program product for creating graphical objects with desired physical features for usage in animation
KR101601040B1 (ko) 2009-05-19 2016-03-09 삼성전자주식회사 휴대 단말기의 화면 표시 방법 및 이를 지원하는 휴대 단말기
US8549432B2 (en) 2009-05-29 2013-10-01 Apple Inc. Radial menus
US9148618B2 (en) 2009-05-29 2015-09-29 Apple Inc. Systems and methods for previewing newly captured image content and reviewing previously stored image content
KR101560718B1 (ko) 2009-05-29 2015-10-15 엘지전자 주식회사 이동 단말기 및 이동 단말기에서의 정보 표시 방법
KR20100129424A (ko) 2009-06-01 2010-12-09 한국표준과학연구원 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법 및 장치
US9372536B2 (en) 2009-06-05 2016-06-21 Empire Technology Development Llc Touch screen with tactile feedback
US8681106B2 (en) 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US9405456B2 (en) 2009-06-08 2016-08-02 Xerox Corporation Manipulation of displayed objects by virtual magnetism
US8612883B2 (en) 2009-06-08 2013-12-17 Apple Inc. User interface for managing the display of multiple display regions
US8823749B2 (en) 2009-06-10 2014-09-02 Qualcomm Incorporated User interface methods providing continuous zoom functionality
KR101598335B1 (ko) 2009-06-11 2016-02-29 엘지전자 주식회사 휴대 단말기 및 그 동작방법
US9330503B2 (en) 2009-06-19 2016-05-03 Microsoft Technology Licensing, Llc Presaging and surfacing interactivity within data visualizations
US8593415B2 (en) 2009-06-19 2013-11-26 Lg Electronics Inc. Method for processing touch signal in mobile terminal and mobile terminal using the same
KR101608764B1 (ko) 2009-07-14 2016-04-04 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US8378798B2 (en) 2009-07-24 2013-02-19 Research In Motion Limited Method and apparatus for a touch-sensitive display
JP5197521B2 (ja) 2009-07-29 2013-05-15 京セラ株式会社 入力装置
US9740340B1 (en) 2009-07-31 2017-08-22 Amazon Technologies, Inc. Visually consistent arrays including conductive mesh
JP5398408B2 (ja) * 2009-08-07 2014-01-29 オリンパスイメージング株式会社 カメラ、カメラの制御方法、表示制御装置、および表示制御方法
JP5310389B2 (ja) 2009-08-27 2013-10-09 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US8363020B2 (en) 2009-08-27 2013-01-29 Symbol Technologies, Inc. Methods and apparatus for pressure-based manipulation of content on a touch screen
JP2011048669A (ja) 2009-08-27 2011-03-10 Kyocera Corp 入力装置
JP2011048686A (ja) 2009-08-27 2011-03-10 Kyocera Corp 入力装置
JP5304544B2 (ja) 2009-08-28 2013-10-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5593655B2 (ja) 2009-08-31 2014-09-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8390583B2 (en) 2009-08-31 2013-03-05 Qualcomm Incorporated Pressure sensitive user interface for mobile devices
JP5267388B2 (ja) 2009-08-31 2013-08-21 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2011053971A (ja) 2009-09-02 2011-03-17 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2011053974A (ja) 2009-09-02 2011-03-17 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
JP5310403B2 (ja) 2009-09-02 2013-10-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8451238B2 (en) 2009-09-02 2013-05-28 Amazon Technologies, Inc. Touch-screen user interface
US20110057886A1 (en) 2009-09-10 2011-03-10 Oliver Ng Dynamic sizing of identifier on a touch-sensitive display
EP2302496A1 (en) 2009-09-10 2011-03-30 Research In Motion Limited Dynamic sizing of identifier on a touch-sensitive display
KR20110028834A (ko) 2009-09-14 2011-03-22 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 터치 압력을 이용한 사용자 인터페이스 제공 방법 및 장치
US8264471B2 (en) 2009-09-22 2012-09-11 Sony Mobile Communications Ab Miniature character input mechanism
EP3855297A3 (en) 2009-09-22 2021-10-27 Apple Inc. Device method and graphical user interface for manipulating user interface objects
JP5393377B2 (ja) 2009-09-25 2014-01-22 京セラ株式会社 入力装置
TW201112074A (en) * 2009-09-30 2011-04-01 Higgstec Inc Touch gesture detecting method of a touch panel
US8436806B2 (en) 2009-10-02 2013-05-07 Research In Motion Limited Method of synchronizing data acquisition and a portable electronic device configured to perform the same
US9141260B2 (en) 2009-10-08 2015-09-22 Red Hat, Inc. Workspace management tool
US20110084910A1 (en) 2009-10-13 2011-04-14 Research In Motion Limited Portable electronic device including touch-sensitive display and method of controlling same
KR101092592B1 (ko) 2009-10-14 2011-12-13 주식회사 팬택 이동통신단말기 및 이의 터치 인터페이스 제공 방법
CA2680602C (en) 2009-10-19 2011-07-26 Ibm Canada Limited - Ibm Canada Limitee System and method for generating and displaying hybrid context menus
US8677284B2 (en) 2009-11-04 2014-03-18 Alpine Electronics, Inc. Method and apparatus for controlling and displaying contents in a user interface
JP5328611B2 (ja) 2009-11-05 2013-10-30 シャープ株式会社 携帯情報端末
KR101611440B1 (ko) 2009-11-16 2016-04-11 삼성전자주식회사 이미지 처리 방법 및 장치
US8432367B2 (en) 2009-11-19 2013-04-30 Google Inc. Translating user interaction with a touch screen into input commands
KR101073309B1 (ko) 2009-11-24 2011-10-12 삼성모바일디스플레이주식회사 터치 스크린 시스템 및 그 구동방법
US8633916B2 (en) 2009-12-10 2014-01-21 Apple, Inc. Touch pad with force sensors and actuator feedback
US9557735B2 (en) 2009-12-10 2017-01-31 Fisher-Rosemount Systems, Inc. Methods and apparatus to manage process control status rollups
JP5490508B2 (ja) 2009-12-11 2014-05-14 京セラ株式会社 タッチセンサを有する装置、触感呈示方法及び触感呈示プログラム
US8358281B2 (en) 2009-12-15 2013-01-22 Apple Inc. Device, method, and graphical user interface for management and manipulation of user interface elements
US8274592B2 (en) 2009-12-22 2012-09-25 Eastman Kodak Company Variable rate browsing of an image collection
US8438504B2 (en) 2010-01-06 2013-05-07 Apple Inc. Device, method, and graphical user interface for navigating through multiple viewing areas
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
US8698845B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US8862576B2 (en) 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US8793611B2 (en) 2010-01-06 2014-07-29 Apple Inc. Device, method, and graphical user interface for manipulating selectable user interface objects
US20110167339A1 (en) 2010-01-06 2011-07-07 Lemay Stephen O Device, Method, and Graphical User Interface for Attachment Viewing and Editing
US8525839B2 (en) 2010-01-06 2013-09-03 Apple Inc. Device, method, and graphical user interface for providing digital content products
KR101616875B1 (ko) 2010-01-07 2016-05-02 삼성전자주식회사 터치 패널 및 이를 구비한 전자기기
US10007393B2 (en) 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
US20110179381A1 (en) 2010-01-21 2011-07-21 Research In Motion Limited Portable electronic device and method of controlling same
US8914732B2 (en) 2010-01-22 2014-12-16 Lg Electronics Inc. Displaying home screen profiles on a mobile terminal
KR101319264B1 (ko) 2010-01-22 2013-10-18 전자부품연구원 멀티 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기
US8683363B2 (en) 2010-01-26 2014-03-25 Apple Inc. Device, method, and graphical user interface for managing user interface content and user interface elements
JP5635274B2 (ja) 2010-01-27 2014-12-03 京セラ株式会社 触感呈示装置および触感呈示方法
US8988367B2 (en) 2010-02-05 2015-03-24 Broadcom Corporation Systems and methods for providing enhanced touch sensing
US8782556B2 (en) 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
US9417787B2 (en) 2010-02-12 2016-08-16 Microsoft Technology Licensing, Llc Distortion effects to indicate location in a movable data collection
KR101690786B1 (ko) 2010-02-12 2016-12-28 삼성전자주식회사 멀티태스킹 수행 장치 및 방법
CA2731745A1 (en) 2010-02-15 2011-08-15 Research In Motion Limited Contact objects
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
EP2541376B1 (en) 2010-02-23 2019-07-31 Kyocera Corporation Electronic apparatus
US20120324471A1 (en) 2010-02-26 2012-12-20 Nec Corporation Control device, management device, data processing method of control device, and program
US9361018B2 (en) 2010-03-01 2016-06-07 Blackberry Limited Method of providing tactile feedback and apparatus
JP5413250B2 (ja) * 2010-03-05 2014-02-12 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8941600B2 (en) 2010-03-05 2015-01-27 Mckesson Financial Holdings Apparatus for providing touch feedback for user input to a touch sensitive surface
US20110221684A1 (en) 2010-03-11 2011-09-15 Sony Ericsson Mobile Communications Ab Touch-sensitive input device, mobile device and method for operating a touch-sensitive input device
JP2011192179A (ja) 2010-03-16 2011-09-29 Kyocera Corp 文字入力装置、文字入力方法及び文字入力プログラム
JP5722877B2 (ja) 2010-03-18 2015-05-27 京セラ株式会社 電子機器
US8756522B2 (en) 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
US9069416B2 (en) 2010-03-25 2015-06-30 Google Inc. Method and system for selecting content using a touchscreen
US8725706B2 (en) 2010-03-26 2014-05-13 Nokia Corporation Method and apparatus for multi-item searching
CN102822784A (zh) 2010-03-31 2012-12-12 诺基亚公司 用于虚拟触笔的装置、方法和计算机程序
US8826184B2 (en) 2010-04-05 2014-09-02 Lg Electronics Inc. Mobile terminal and image display controlling method thereof
JP2011221640A (ja) 2010-04-06 2011-11-04 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20110252376A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
EP2375309A1 (en) 2010-04-08 2011-10-12 Research in Motion Limited Handheld device with localized delays for triggering tactile feedback
EP2375314A1 (en) 2010-04-08 2011-10-12 Research in Motion Limited Touch-sensitive device and method of control
US20110248948A1 (en) 2010-04-08 2011-10-13 Research In Motion Limited Touch-sensitive device and method of control
EP2378406B1 (en) 2010-04-13 2018-08-22 LG Electronics Inc. Mobile terminal and method of controlling operation of the mobile terminal
US9026932B1 (en) 2010-04-16 2015-05-05 Amazon Technologies, Inc. Edge navigation user interface
KR101668240B1 (ko) 2010-04-19 2016-10-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR101704531B1 (ko) 2010-04-22 2017-02-08 삼성전자주식회사 휴대 단말기의 텍스트 정보 표시 방법 및 장치
JP2011242386A (ja) 2010-04-23 2011-12-01 Immersion Corp 接触センサと触覚アクチュエータとの透明複合圧電材結合体
JP2011238125A (ja) 2010-05-12 2011-11-24 Sony Corp 画像処理装置および方法、並びにプログラム
EP2386935B1 (en) 2010-05-14 2015-02-11 BlackBerry Limited Method of providing tactile feedback and electronic device
US8451255B2 (en) 2010-05-14 2013-05-28 Arnett Ryan Weber Method of providing tactile feedback and electronic device
US8466889B2 (en) 2010-05-14 2013-06-18 Research In Motion Limited Method of providing tactile feedback and electronic device
WO2011146740A2 (en) 2010-05-19 2011-11-24 Google Inc. Sliding motion to change computer keys
US20110296333A1 (en) 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
US20110296351A1 (en) 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-axis Interaction and Multiple Stacks
WO2011148884A1 (ja) 2010-05-28 2011-12-01 楽天株式会社 コンテンツ出力装置、コンテンツ出力方法、コンテンツ出力プログラム、及びコンテンツ出力プログラムが記録された記録媒体
US20110307778A1 (en) 2010-06-10 2011-12-15 Acer Incorporated Mobile electronic apparatus and method of switching application programs thereof
US20110304577A1 (en) 2010-06-11 2011-12-15 Sp Controls, Inc. Capacitive touch screen stylus
US20110304559A1 (en) 2010-06-11 2011-12-15 Research In Motion Limited Portable electronic device including touch-sensitive display and method of changing tactile feedback
US9106194B2 (en) 2010-06-14 2015-08-11 Sony Corporation Regulation of audio volume and/or rate responsive to user applied pressure and related methods
US8542205B1 (en) 2010-06-24 2013-09-24 Amazon Technologies, Inc. Refining search results based on touch gestures
US8477109B1 (en) 2010-06-24 2013-07-02 Amazon Technologies, Inc. Surfacing reference work entries on touch-sensitive displays
US20120013541A1 (en) 2010-07-14 2012-01-19 Research In Motion Limited Portable electronic device and method of controlling same
US20120013542A1 (en) 2010-07-16 2012-01-19 Research In Motion Limited Portable electronic device and method of determining a location of a touch
JP2012027875A (ja) 2010-07-28 2012-02-09 Sony Corp 電子機器、処理方法及びプログラム
JP5511573B2 (ja) * 2010-08-04 2014-06-04 キヤノン株式会社 表示制御装置及びその制御方法、並びにプログラム及び記憶媒体
US8698765B1 (en) 2010-08-17 2014-04-15 Amazon Technologies, Inc. Associating concepts within content items
US8576184B2 (en) 2010-08-19 2013-11-05 Nokia Corporation Method and apparatus for browsing content files
JP5510185B2 (ja) 2010-08-20 2014-06-04 ソニー株式会社 情報処理装置、プログラム及び表示制御方法
JP5573487B2 (ja) 2010-08-20 2014-08-20 ソニー株式会社 情報処理装置、プログラム及び操作制御方法
JP2011048832A (ja) 2010-08-27 2011-03-10 Kyocera Corp 入力装置
JP5732783B2 (ja) 2010-09-02 2015-06-10 ソニー株式会社 情報処理装置、情報処理装置の入力制御方法及びプログラム
KR101739054B1 (ko) 2010-09-08 2017-05-24 삼성전자주식회사 디바이스상의 움직임 제어 방법 및 장치
US20120066648A1 (en) 2010-09-14 2012-03-15 Xerox Corporation Move and turn touch screen interface for manipulating objects in a 3d scene
US9164670B2 (en) 2010-09-15 2015-10-20 Microsoft Technology Licensing, Llc Flexible touch-based scrolling
JP6049990B2 (ja) 2010-09-15 2016-12-21 京セラ株式会社 携帯電子機器、画面制御方法および画面制御プログラム
EP2431870B1 (en) 2010-09-17 2019-11-27 LG Electronics Inc. Mobile terminal and control method thereof
US9030419B1 (en) 2010-09-28 2015-05-12 Amazon Technologies, Inc. Touch and force user interface navigation
US8817053B2 (en) 2010-09-30 2014-08-26 Apple Inc. Methods and systems for opening a file
US9323442B2 (en) 2010-09-30 2016-04-26 Apple Inc. Managing items in a user interface
EP2447818A1 (en) 2010-10-07 2012-05-02 Research in Motion Limited Method and portable electronic device for presenting text
JP5664103B2 (ja) 2010-10-08 2015-02-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP5751934B2 (ja) 2010-10-15 2015-07-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US20120102437A1 (en) 2010-10-22 2012-04-26 Microsoft Corporation Notification Group Touch Gesture Dismissal Techniques
JP5710934B2 (ja) 2010-10-25 2015-04-30 シャープ株式会社 コンテンツ表示装置、およびコンテンツ表示方法
US8655085B2 (en) 2010-10-28 2014-02-18 Microsoft Corporation Burst mode image compression and decompression
US20120105367A1 (en) 2010-11-01 2012-05-03 Impress Inc. Methods of using tactile force sensing for intuitive user interface
US9262002B2 (en) 2010-11-03 2016-02-16 Qualcomm Incorporated Force sensing touch screen
US8754860B2 (en) 2010-11-05 2014-06-17 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
JP2012109898A (ja) * 2010-11-19 2012-06-07 Aof Imaging Technology Ltd 撮影装置、撮影方法、およびプログラム
JP5719205B2 (ja) 2010-11-22 2015-05-13 シャープ株式会社 電子機器および表示制御方法
US8560960B2 (en) 2010-11-23 2013-10-15 Apple Inc. Browsing and interacting with open windows
JP5700783B2 (ja) 2010-12-07 2015-04-15 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
US9354804B2 (en) 2010-12-29 2016-05-31 Microsoft Technology Licensing, Llc Touch event anticipation in a computing device
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US20120179967A1 (en) 2011-01-06 2012-07-12 Tivo Inc. Method and Apparatus for Gesture-Based Controls
KR101892630B1 (ko) 2011-01-10 2018-08-28 삼성전자주식회사 터치 디스플레이 장치 및 그 디스플레이 방법
US20120185787A1 (en) 2011-01-13 2012-07-19 Microsoft Corporation User interface interaction behavior based on insertion point
US20120183271A1 (en) 2011-01-17 2012-07-19 Qualcomm Incorporated Pressure-based video recording
US9519418B2 (en) 2011-01-18 2016-12-13 Nokia Technologies Oy Method and apparatus for providing a multi-stage device transition mechanism initiated based on a touch gesture
US9195321B2 (en) 2011-03-17 2015-11-24 Intellitact Llc Input device user interface enhancements
US20120249853A1 (en) 2011-03-28 2012-10-04 Marc Krolczyk Digital camera for reviewing related images
US11580155B2 (en) 2011-03-28 2023-02-14 Kodak Alaris Inc. Display device for displaying related digital images
US20120256846A1 (en) 2011-04-05 2012-10-11 Research In Motion Limited Electronic device and method of controlling same
US20120256857A1 (en) 2011-04-05 2012-10-11 Mak Genevieve Elizabeth Electronic device and method of controlling same
US8872773B2 (en) 2011-04-05 2014-10-28 Blackberry Limited Electronic device and method of controlling same
US20120260220A1 (en) 2011-04-06 2012-10-11 Research In Motion Limited Portable electronic device having gesture recognition and a method for controlling the same
US8736716B2 (en) 2011-04-06 2014-05-27 Apple Inc. Digital camera having variable duration burst mode
US10222974B2 (en) 2011-05-03 2019-03-05 Nokia Technologies Oy Method and apparatus for providing quick access to device functionality
US9152288B2 (en) 2011-05-19 2015-10-06 Microsoft Technology Licensing, Llc Remote multi-touch
US8952987B2 (en) 2011-05-19 2015-02-10 Qualcomm Incorporated User interface elements augmented with force detection
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9798408B2 (en) 2011-05-27 2017-10-24 Kyocera Corporation Electronic device
KR101290145B1 (ko) 2011-05-31 2013-07-26 삼성전자주식회사 터치 스크린 제어 방법 및 장치, 컴퓨터에 의해 독출될 수 있는 기록 매체, 그리고 단말장치
US8677232B2 (en) 2011-05-31 2014-03-18 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
US8508494B2 (en) 2011-06-01 2013-08-13 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
US8587542B2 (en) 2011-06-01 2013-11-19 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
CN105955617B (zh) 2011-06-03 2019-07-12 谷歌有限责任公司 用于选择文本的手势
US8661337B2 (en) 2011-06-05 2014-02-25 Apple Inc. Techniques for use of snapshots with browsing transitions
US9304668B2 (en) 2011-06-28 2016-04-05 Nokia Technologies Oy Method and apparatus for customizing a display screen of a user interface
WO2013008649A1 (ja) 2011-07-11 2013-01-17 Kddi株式会社 指の接触による入力を複数のモードで実行可能なユーザインタフェース装置、入力操作判定方法及びプログラム
JP5325943B2 (ja) 2011-07-12 2013-10-23 富士フイルム株式会社 情報処理装置、情報処理方法及びプログラム
US20130016042A1 (en) 2011-07-12 2013-01-17 Ville Makinen Haptic device with touch gesture interface
US9086794B2 (en) 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
JP5295328B2 (ja) 2011-07-29 2013-09-18 Kddi株式会社 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
KR101830965B1 (ko) 2011-08-03 2018-02-22 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US20130044062A1 (en) 2011-08-16 2013-02-21 Nokia Corporation Method and apparatus for translating between force inputs and temporal inputs
US20130047100A1 (en) 2011-08-17 2013-02-21 Google Inc. Link Disambiguation For Touch Screens
US9766782B2 (en) * 2011-08-19 2017-09-19 Apple Inc. Interactive content for digital books
US20130050131A1 (en) 2011-08-23 2013-02-28 Garmin Switzerland Gmbh Hover based navigation user interface control
US8806369B2 (en) 2011-08-26 2014-08-12 Apple Inc. Device, method, and graphical user interface for managing and interacting with concurrently open software applications
US8743069B2 (en) 2011-09-01 2014-06-03 Google Inc. Receiving input at a computing device
CN102981659B (zh) 2011-09-06 2016-01-27 宸鸿光电科技股份有限公司 触控面板的控制系统与控制方法及其使用的触控笔
US20130067411A1 (en) 2011-09-08 2013-03-14 Google Inc. User gestures indicating rates of execution of functions
JP5576841B2 (ja) 2011-09-09 2014-08-20 Kddi株式会社 押圧による画像のズームが可能なユーザインタフェース装置、画像ズーム方法及びプログラム
US8976128B2 (en) 2011-09-12 2015-03-10 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US9069460B2 (en) 2011-09-12 2015-06-30 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US9519350B2 (en) 2011-09-19 2016-12-13 Samsung Electronics Co., Ltd. Interface controlling apparatus and method using force
US8959430B1 (en) 2011-09-21 2015-02-17 Amazon Technologies, Inc. Facilitating selection of keys related to a selected key
US20130082824A1 (en) 2011-09-30 2013-04-04 Nokia Corporation Feedback response
JP2012027940A (ja) 2011-10-05 2012-02-09 Toshiba Corp 電子機器
US8634807B2 (en) 2011-10-17 2014-01-21 Blackberry Limited System and method for managing electronic groups
US9075631B2 (en) 2011-10-18 2015-07-07 Blackberry Limited Method of rendering a user interface
EP2584464B1 (en) 2011-10-18 2020-02-19 BlackBerry Limited Method of rendering a user interface
EP2584463B1 (en) 2011-10-18 2017-09-13 BlackBerry Limited Method of rendering a user interface
EP2584450A3 (en) 2011-10-18 2014-05-21 BlackBerry Limited Method of modifying rendered attributes of list elements in a user interface
US9389707B2 (en) 2011-10-28 2016-07-12 Atmel Corporation Active stylus with configurable touch sensor
EP2780783B1 (en) 2011-11-18 2022-12-28 Sentons Inc. Detecting touch input force
KR101796481B1 (ko) 2011-11-28 2017-12-04 삼성전자주식회사 저전력 셔터랙 제거 방법, 카메라 모듈 및 이를 구비하는 모바일 기기
KR101873744B1 (ko) 2011-11-29 2018-07-03 엘지전자 주식회사 이동단말기 및 그 제어방법
KR101824007B1 (ko) 2011-12-05 2018-01-31 엘지전자 주식회사 이동 단말기 및 그의 멀티 태스킹 방법
US8581870B2 (en) 2011-12-06 2013-11-12 Apple Inc. Touch-sensitive button with two levels
US8633911B2 (en) 2011-12-14 2014-01-21 Synaptics Incorporated Force sensing input device and method for determining force information
US9195362B2 (en) 2011-12-16 2015-11-24 Blackberry Limited Method of rendering a user interface
US20130154959A1 (en) 2011-12-20 2013-06-20 Research In Motion Limited System and method for controlling an electronic device
US20130154933A1 (en) 2011-12-20 2013-06-20 Synaptics Incorporated Force touch mouse
WO2013094371A1 (ja) 2011-12-22 2013-06-27 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
US9257098B2 (en) 2011-12-23 2016-02-09 Nokia Technologies Oy Apparatus and methods for displaying second content in response to user inputs
KR102006470B1 (ko) 2011-12-28 2019-08-02 삼성전자 주식회사 사용자 디바이스에서 멀티태스킹 운용 방법 및 장치
US8756511B2 (en) 2012-01-03 2014-06-17 Lg Electronics Inc. Gesture based unlocking of a mobile terminal
CA2860569A1 (en) 2012-01-09 2013-07-18 Airbiquity Inc. User interface for mobile device
KR101710547B1 (ko) 2012-01-10 2017-02-27 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9619038B2 (en) 2012-01-23 2017-04-11 Blackberry Limited Electronic device and method of displaying a cover image and an application image from a low power condition
JP5410555B2 (ja) 2012-01-26 2014-02-05 京セラドキュメントソリューションズ株式会社 タッチパネル装置
US20130198690A1 (en) 2012-02-01 2013-08-01 Microsoft Corporation Visual indication of graphical user interface relationship
EP2631737A1 (en) 2012-02-24 2013-08-28 Research In Motion Limited Method and apparatus for providing a contextual user interface on a device
TWI519155B (zh) 2012-02-24 2016-01-21 宏達國際電子股份有限公司 影像連續拍攝方法與相關影像擷取系統
KR101894567B1 (ko) 2012-02-24 2018-09-03 삼성전자 주식회사 락스크린 운용 방법 및 이를 지원하는 단말기
US9898174B2 (en) 2012-02-28 2018-02-20 Google Llc Previewing expandable content items
KR20130099647A (ko) 2012-02-29 2013-09-06 한국과학기술원 사이드 인터페이스를 이용한 사용자 단말 컨텐츠 제어방법 및 제어장치
US20130232402A1 (en) 2012-03-01 2013-09-05 Huawei Technologies Co., Ltd. Method for Processing Sensor Data and Computing Node
US9116571B2 (en) 2012-03-27 2015-08-25 Adonit Co., Ltd. Method and system of data input for an electronic device equipped with a touch screen
US11474645B2 (en) 2012-03-27 2022-10-18 Nokia Technologies Oy Method and apparatus for force sensing
US9146655B2 (en) 2012-04-06 2015-09-29 Samsung Electronics Co., Ltd. Method and device for executing object on display
KR101924095B1 (ko) 2012-04-06 2018-11-30 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
TWI459287B (zh) 2012-04-20 2014-11-01 Hon Hai Prec Ind Co Ltd 觸控操作方法及使用其的電子系統
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169877A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting user interface objects
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
AU2013259614B2 (en) 2012-05-09 2016-08-25 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
US9977499B2 (en) 2012-05-09 2018-05-22 Apple Inc. Thresholds for determining feedback in computing devices
CN108241465B (zh) 2012-05-09 2021-03-09 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
WO2013169882A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving and dropping a user interface object
EP2847657B1 (en) 2012-05-09 2016-08-10 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
CN104487928B (zh) 2012-05-09 2018-07-06 苹果公司 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
EP2669786A3 (en) 2012-05-29 2017-09-13 Samsung Electronics Co., Ltd Method for displaying item in terminal and terminal using the same
CN102799347B (zh) 2012-06-05 2017-01-04 北京小米科技有限责任公司 应用于触屏设备的用户界面交互方法、装置及触屏设备
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
JP2013257657A (ja) 2012-06-11 2013-12-26 Fujitsu Ltd 情報端末装置及び表示制御方法
KR20130142301A (ko) 2012-06-19 2013-12-30 삼성전자주식회사 단말기의 메뉴환경 설정 장치 및 방법
US9874936B2 (en) * 2012-06-22 2018-01-23 Cape Evolution Limited Wearable electronic device
US20140002374A1 (en) 2012-06-29 2014-01-02 Lenovo (Singapore) Pte. Ltd. Text selection utilizing pressure-sensitive touch
US9298295B2 (en) 2012-07-25 2016-03-29 Facebook, Inc. Gestures for auto-correct
JP2014032506A (ja) 2012-08-02 2014-02-20 Sharp Corp 情報処理装置、選択操作検出方法およびプログラム
US9280206B2 (en) 2012-08-20 2016-03-08 Samsung Electronics Co., Ltd. System and method for perceiving images with multimodal feedback
KR101946365B1 (ko) 2012-08-20 2019-02-11 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US9720586B2 (en) 2012-08-21 2017-08-01 Nokia Technologies Oy Apparatus and method for providing for interaction with content within a digital bezel
KR101946366B1 (ko) 2012-08-23 2019-02-11 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
KR101956170B1 (ko) 2012-08-29 2019-03-08 삼성전자 주식회사 카메라의 이미지 저장 장치 및 방법
US20140078343A1 (en) 2012-09-20 2014-03-20 Htc Corporation Methods for generating video and multiple still images simultaneously and apparatuses using the same
US9372538B2 (en) 2012-09-28 2016-06-21 Denso International America, Inc. Multiple-force, dynamically-adjusted, 3-D touch surface with feedback for human machine interface (HMI)
US20140111670A1 (en) 2012-10-23 2014-04-24 Nvidia Corporation System and method for enhanced image capture
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US20140152581A1 (en) 2012-11-30 2014-06-05 Lenovo (Singapore) Pte. Ltd. Force as a device action modifier
US9244576B1 (en) 2012-12-21 2016-01-26 Cypress Semiconductor Corporation User interface with child-lock feature
WO2014100953A1 (en) 2012-12-24 2014-07-03 Nokia Corporation An apparatus and associated methods
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
AU2013368443B2 (en) 2012-12-29 2016-03-24 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
AU2013368445B8 (en) 2012-12-29 2017-02-09 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select contents
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
EP3467634B1 (en) 2012-12-29 2020-09-23 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
KR20140097902A (ko) 2013-01-30 2014-08-07 삼성전자주식회사 햅틱 패턴을 생성하는 휴대 단말 및 방법
US20140210798A1 (en) 2013-01-31 2014-07-31 Hewlett-Packard Development Company, L.P. Digital Drawing Using A Touch-Sensitive Device To Detect A Position And Force For An Input Event
KR101761190B1 (ko) 2013-02-22 2017-07-25 삼성전자 주식회사 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치
JP2014165663A (ja) 2013-02-25 2014-09-08 Kyocera Corp 携帯端末装置、プログラムおよび携帯端末装置の制御方法
US9690476B2 (en) 2013-03-14 2017-06-27 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US10203815B2 (en) 2013-03-14 2019-02-12 Apple Inc. Application-based touch sensitivity
CN105144071B (zh) 2013-03-15 2019-11-19 苹果公司 用于管理用户界面的方法和电子设备
DE112014001380T5 (de) 2013-03-15 2015-12-03 Tk Holdings Inc. Adaptive Mensch-Maschine-Schnittstellen für druckempfindliche Steuerung in einer abgelenkten Betriebsumgebung und Verfahren zur Anwendung derselben
US9225677B2 (en) 2013-03-15 2015-12-29 Facebook, Inc. Systems and methods for displaying a digest of messages or notifications without launching applications associated with the messages or notifications
US9507495B2 (en) 2013-04-03 2016-11-29 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9389718B1 (en) 2013-04-04 2016-07-12 Amazon Technologies, Inc. Thumb touch interface
US20140306897A1 (en) 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Virtual keyboard swipe gestures for cursor movement
US9307112B2 (en) 2013-05-31 2016-04-05 Apple Inc. Identifying dominant and non-dominant images in a burst mode capture
US9319589B2 (en) 2013-05-31 2016-04-19 Sony Corporation Device and method for capturing images and selecting a desired image by tilting the device
US10282067B2 (en) 2013-06-04 2019-05-07 Sony Corporation Method and apparatus of controlling an interface based on touch operations
US9477393B2 (en) 2013-06-09 2016-10-25 Apple Inc. Device, method, and graphical user interface for displaying application status information
KR102113674B1 (ko) 2013-06-10 2020-05-21 삼성전자주식회사 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US9400601B2 (en) 2013-06-21 2016-07-26 Nook Digital, Llc Techniques for paging through digital content on touch screen devices
KR102080746B1 (ko) 2013-07-12 2020-02-24 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9342228B2 (en) 2013-07-17 2016-05-17 Blackberry Limited Device and method for filtering messages using sliding touch input
KR20150013991A (ko) 2013-07-25 2015-02-06 삼성전자주식회사 휴대단말기의 어플리케이션 실행 방법 및 장치
US9335897B2 (en) 2013-08-08 2016-05-10 Palantir Technologies Inc. Long click display of a context menu
CN108415634B (zh) 2013-08-30 2020-12-15 烟台正海科技股份有限公司 一种触控装置
US20150071547A1 (en) 2013-09-09 2015-03-12 Apple Inc. Automated Selection Of Keeper Images From A Burst Photo Captured Set
US9407964B2 (en) 2013-10-25 2016-08-02 Verizon Patent And Licensing Inc. Method and system for navigating video to an instant time
CN114237485A (zh) 2013-12-11 2022-03-25 北京三星通信技术研究有限公司 触控操作的方法及装置
JP2015114836A (ja) 2013-12-11 2015-06-22 キヤノン株式会社 画像処理装置、触感制御方法及びプログラム
KR102313098B1 (ko) 2014-02-18 2021-10-14 케임브리지 터치 테크놀로지스 리미티드 포스 터치를 이용한 터치 스크린 전력 모드의 동적 스위칭
US9436348B2 (en) 2014-03-18 2016-09-06 Blackberry Limited Method and system for controlling movement of cursor in an electronic device
KR102129798B1 (ko) 2014-05-08 2020-07-03 엘지전자 주식회사 비히클 및 그 제어 방법
US9477653B2 (en) 2014-06-26 2016-10-25 Blackberry Limited Character entry for an electronic device using a position sensing keyboard
US9294719B2 (en) 2014-06-30 2016-03-22 Salesforce.Com, Inc. Systems, methods, and apparatuses for implementing in-app live support functionality
US20160019718A1 (en) 2014-07-16 2016-01-21 Wipro Limited Method and system for providing visual feedback in a virtual reality environment
KR20160021524A (ko) 2014-08-18 2016-02-26 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10203858B2 (en) 2014-08-28 2019-02-12 Blackberry Limited Portable electronic device and method of controlling the display of information
EP3964931A1 (en) 2014-09-02 2022-03-09 Apple Inc. Semantic framework for variable haptic output
US20160132139A1 (en) 2014-11-11 2016-05-12 Qualcomm Incorporated System and Methods for Controlling a Cursor Based on Finger Pressure and Direction
KR20150021977A (ko) 2015-01-19 2015-03-03 인포뱅크 주식회사 휴대용 단말기에서의 ui 구성 방법
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9674426B2 (en) * 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227439A (zh) * 2015-06-07 2016-12-14 苹果公司 用于捕获增强型数字图像和与之交互的设备和方法
CN106598437A (zh) * 2016-12-22 2017-04-26 东方网力科技股份有限公司 一种电子地图的缩放显示方法和装置
CN110032397A (zh) * 2018-01-10 2019-07-19 广东欧珀移动通信有限公司 应用处理方法和装置、电子设备、计算机可读存储介质
CN110032397B (zh) * 2018-01-10 2023-01-31 Oppo广东移动通信有限公司 应用处理方法和装置、电子设备、计算机可读存储介质
CN110008364A (zh) * 2019-03-25 2019-07-12 联想(北京)有限公司 图像处理方法、装置和系统
CN111511002A (zh) * 2020-04-23 2020-08-07 Oppo广东移动通信有限公司 检测帧率的调节方法和装置、终端和可读存储介质
CN111511002B (zh) * 2020-04-23 2023-12-05 Oppo广东移动通信有限公司 检测帧率的调节方法和装置、终端和可读存储介质

Also Published As

Publication number Publication date
DE202016003234U1 (de) 2016-09-21
AU2016100648A4 (en) 2016-06-23
AU2016100648B4 (en) 2017-02-23
DK201500584A1 (en) 2017-01-02
US9674426B2 (en) 2017-06-06
CN106227439A (zh) 2016-12-14
US20160360097A1 (en) 2016-12-08
CN106227439B (zh) 2019-07-30

Similar Documents

Publication Publication Date Title
CN205788149U (zh) 电子设备以及用于显示图像的装置
CN106227441A (zh) 用于捕获增强型数字图像和与之交互的设备和方法
CN205942662U (zh) 电子设备和用于对多个图像分组的装置

Legal Events

Date Code Title Description
C14 Grant of patent or utility model
GR01 Patent grant