上周一位朋友说自己试了个眼动仪,可以直接用眼球切水果,强烈推荐我关注一下;然后在硬蛋创新大赛又看到有人在晒一个眼镜的照片,同样是可以切水果,我才明白朋友说的那个眼动仪原来是个智能眼镜,而且叫aGlass。
aGlass到现在还在研发阶段,没有太多实在的东西可以拿来剖析,我便直接问 COO 彭凡“现在具体到啥阶段了?” “还在工程机阶段,但可以戴上自个体验了”,换而言之,他们现在每天还在不断调试改进,还在为产品的正式发布做准备。
看了之前媒体和aGlass的对话
“传统的触摸交互不适合智能眼镜的操作,而声控是离散的命令,且对周围环境要求较高,但眼控技术用在智能眼镜上,实际意义就会大很多。”
我问彭凡实际意义在哪里,他很木讷地表示“发一份PPT给你看看吧”,我当时就拒绝了,一个应用场景举例如果不能脱口而出,还要用一份PPT来解释的话,少许有些牵强。
之前我们见过眼控技术用语军事训练、医疗保健,这些场景都是刚需,比如市场上有适用于残疾人市场的“全能眼”视线鼠标,通过跟踪操作者的视线焦点来操作电脑,使用者无需佩戴任何的装置即可通过视线焦点来轻松控制PC。但在正常人那里,用眼球控制浏览屏幕、切水果、对焦拍照真的是一个很好的选择吗?
其次,看眼控技术(Eye control)的介绍: 用眼动控制机器的一种全新控制方式。用眼“看”就能完成所有操作,解放双手的同时也是最快捷、最人性化的交互方式。我问彭凡怎么看这个问题,他表示得看实际产品的效果。
虽然承认眼睛是人体上接受信息最快、最广的方式,但何以见得它会是输出控制时最快捷、最人性化的方式?
如果一定要用眼睛输出,小编觉得注视这个动作还算比较可取,若想靠频繁眨眼来切水果之类的就太累了。 因为人眼眨动时一般是在放松眼睛,聚焦注视的时候才是执行眼睛动作的时候。
最后,现在这款号称全球首款的眼控眼镜还没出来,小编的疑问还没解决。因为眼控智能眼镜这种东西,只有它的受众————眼睛才最懂它,而到时的aGlass会给我们一个什么样的答案,请大家拭目以待! |