xp01 2017-8-6 09:05
Windows 10 将加入“眼球控制”,会代替鼠标、键盘以及触屏吗?[7P]
ifanr.com|产品|林树洽 编辑
[img]http://ifanr-cdn.b0.upaiyun.com/wp-content/uploads/2017/08/2-2.gif[/img]
[size=3]动动眼睛,盯着手机屏幕的底部,网页或者邮件就会自动翻页。
假如你也曾用过三星 Galaxy S4,我想你可能对“眼球控制”这个概念并不陌生。但实际上,这只是“眼球控制”中的一部分功能。真正的眼球控制能做的事情还很多,比如移动 UI 上的光标、用眼睛打字、打开应用以及其他操作。
[img]http://ifanr-cdn.b0.upaiyun.com/wp-content/uploads/2017/08/image-in-the-image-2204798_1920.jpg[/img]
但这并不是只存在于科幻电影中的情节,现在只要在最新的 Windows 10 Insider Preview 版本中,配备一款 Tobii Eye Tracker 4C 的设备,你就能用上这个酷炫的功能。例如,利用眼睛盯着桌面上 Chrome 的图标就能打开浏览器;盯着屏幕键盘就能代替键盘打字。
[img]http://ifanr-cdn.b0.upaiyun.com/wp-content/uploads/2017/08/1-2.gif[/img]
而这正是今天 Tobii Technology 与微软合作的内容,这项眼球控制功能将成为未来 Windows 10 内置的原生功能,它将被命名为“Eye Control”。
[img]http://ifanr-cdn.b0.upaiyun.com/wp-content/uploads/2017/08/tobii-pro-spectrum-splash.jpg[/img]
实际上,提供这项技术的瑞典公司 Tobii Technology 在眼球跟踪方面已经有十多年的技术沉淀,在识别的精准度和速度上都有一定的优势。
它主要是通过设备发出红外光来确定用户眼睛的位置,然后利用两个传感器拍摄每秒 30 帧的图像,由于整个过程会捕捉到用户的视网膜和角膜,所以系统通过这些数据可以构建用户眼睛的实时 3D 模型,并通过三维空间跟踪眼球的焦点,最终实现了眼球控制。
[img]http://ifanr-cdn.b0.upaiyun.com/wp-content/uploads/2017/08/3-2.gif[/img]
在 Tobii 看来,这项技术具有很深远的意义,它能够给用户提供一种新的方式,从根本上改变我们与设备之间的交互。
目前在微软只是将这个花哨的操控方式定位为一个辅助功能,旨在帮助那些患有神经肌肉疾病的用户(比如渐冻症患者或其它残疾人),在没办法使用鼠标和键盘的情况下,通过眼睛来使用电脑。
[img]http://ifanr-cdn.b0.upaiyun.com/wp-content/uploads/2017/08/1-dBJ9GLsYS7bll0HjUdHGWw.jpeg[/img]
除此之外,微软与 Tobii 方面也展开了紧密的合作,除了已经支持的 Tobii Eye Tracker 4C,其他的眼球跟踪产品比如 Tobii Dynavox PCEye Mini、PCEye Plus、EyeMobile Plus、以及 I- 系列也很快得到支持。
[img]http://ifanr-cdn.b0.upaiyun.com/wp-content/uploads/2017/08/Web_image_3840_VR_5_Slideshow.jpg[/img]
(Tobii 眼球跟踪技术的 VR 上的演示)
尽管目前我们不知道这种眼球控制技术会不会得到广泛的应用,但从现阶段 Tobii 在游戏、VR 等方面的布局来看,他们要做的似乎并非只是让更多的残疾人能用上电脑,而是希望利用眼球控制打造一种更直接、更自然的交互方式。
其实我们都说不准,明天的眼球控制会不会就是今天的触屏操控?[/size]
海边的蒲公英 2017-8-6 09:16
这个技术还时很有前景的,不过就目前来说,不实用有待成熟。
kevin_lj 2017-8-6 12:02
这个技术现在应该还是靠摄像头追踪眼球视线,光线不足的环境下应用不良,良好环境下准确度也很有问题!简单来说,没用。。
lili809181 2017-8-6 15:36
眼球控制的误差有多大?就像那些语音输入法一样,存在很大的误差。
msncpu 2017-8-6 21:09
眼球控制误差太大了,目前来看,只是一个噱头,离实现还有很长的路要走。
wh12355 2017-8-6 21:43
这个技术看着就像微软游戏机 KINECT的增强版本呀,以前的只能进行动作捕捉,这个更强大,直接用眼球了,不过估计肯定有角度、距离、光线等局限性。
tttttdr 2017-8-7 05:18
不知会否对眼睛产生伤害
“它主要是通过设备发出红外光来确定用户眼睛的位置,然后利用两个传感器拍摄每秒 30 帧的图像,由于整个过程会捕捉到用户的视网膜和角膜,所以系统通过这些数据可以构建用户眼睛的实时 3D 模型,并通过三维空间跟踪眼球的焦点,最终实现了眼球控制。”
那么一定是深度捕捉眼球的运动轨迹,如果是被动的还好,但眼球结构就是个黑箱,怎么捕捉视网膜呢,是否存在发射回馈?会否对眼睛产生伤害呢?
就像食品安全标准一样,不是没有有害物质,而是有害物质在安全标准下,能通过自身排毒消解掉,但一旦短时间大量摄入还是有害的。
从技术角度讲这肯定是对残疾朋友有益的,就像文中所言对整个人类的操作方式都是个进步!结合前段时间报道的脑波控制技术,所谓网游小说中的全息头盔离我们越来越近了!
tom3214 2017-8-7 21:19
巧了,接触过一个眼睛凝视点三维坐标重建的项目,其实像电脑这么近的距离的话精度做到几毫米应该还是没问题的