博客专栏

EEPW首页 > 博客 > 让现实世界与虚拟影像交互的MR眼镜,戴上啥感觉?

让现实世界与虚拟影像交互的MR眼镜,戴上啥感觉?

发布人:传感器技术 时间:2021-05-22 来源:工程师 发布文章

如果你问在未来,智能手机后下一代科技产品会是什么?触摸点击操作后下一种主流交互方式会是怎样?那么在我们的猜测中,用手势操作虚拟界面的MR眼镜,或许就是答案之一。

电影里,蜘蛛侠戴的这种现实与虚拟影像结合的眼镜,现实中其实已经有了,它真正的名字叫MR眼镜。

和很多朋友更熟悉的VR眼镜对比,通俗点来说,戴上VR眼镜后就看不到现实世界了,而戴MR眼镜可以看虚拟影像,又可以看到真实物体。

说得挺邪乎,宣传视频拍得也都挺酷炫,但戴上MR眼镜后的真实体验是什么样的呢?

愿意在MR眼镜领域深耕的公司,其实不多。这次我们体验的,是国内公司影创科技的新产品“鸿鹄”。

为了尽量让大家能体验到使用MR眼镜的效果,我们把GoPro绑在眼镜上,试图还原佩戴后肉眼看到的画面。

这就是戴上眼镜后看到的画面,与普通影像不同的是,当我们开始移动,变换自己的位置时就会发现,眼镜中的虚拟影像会像真实的物体一样,立在你设定好的位置。

需要说明的是,由于眼镜是针对双眼成像,而GoPro只能记录单眼的画面,再加上摄像机拍摄的画面与人眼看到的画面也存在差距,戴上眼镜后真实看到的显示区域,其实会比我们视频中记录的更大一些

我们只要伸出手,就可以利用手势来操作界面。多说一嘴,MR眼镜的手势操作,和我们以前见过的智能手机、智能电视的手势交互相比,实现起来要难得多。

首先硬件上,除了中间的主摄,可以看到眼镜两侧还各有一个摄像头,它们是6DoF空间定位摄像头,负责识别用户的手势。

这种手势识别需要对人手的21个关节点进行3D位置的估计,通过这些关节点的信息来预估一只手的形状和位置,从而识别用户的手势命令,再通过大量的机器学习,从而实现更好的MR体验

我们也在鸿鹄眼镜上体验了捏取、滑动等各种动作,老实说,还不太习惯。

在手势操作之外,鸿鹄还支持手柄操作,两种交互形式结合起来,能最大程度的降低用户的学习成本。

另外值得一提的是,鸿鹄随机自带两个轻便型手柄,支持三维空间中的六自由度追踪。可以像任天堂Switch一样,与计算单元主机进行组装或拆卸。

另外,MR眼镜的空间定位、软件运行、图像处理等功能,都集成在了这个小小的计算单元之中,然后数据传输到眼镜后,最终呈现在用户眼前。

鸿鹄通过这种分体式设计,让计算单元独立在眼镜之外,可以揣进口袋里,这种设计也让眼镜变得很轻薄,佩戴使用更舒适。

鸿鹄搭载的是高通骁龙XR2平台,在它的加持下,我们可以在MR眼镜上使用各种安卓应用以及定制应用,比如画质颇高的赛车游戏。

其中让我们印象最深刻的,也是特别能综合体现MR眼镜优势的一款应用,是鸿鹄定制的画笔应用。它允许用户握着6DoF手柄,在真实空间中使用各种画笔进行涂鸦。

奇妙的地方在于,这些都是真正的3D图像。当你放下画笔,走近那些涂鸦时,可以发现它们全部以立体的形式呈现在眼前。那一刻恍惚感觉自己就是神笔马良。

这是我们在使用MR眼镜时最愉悦的体验,它让我想起小时候刚接触电脑时,用Windows的画图工具,以及金山画王软件,疯狂作画的那些时光

公允地说,MR是一种仍在成长中的新技术,目前针对它特性而开发的定制应用,数量还不多。

但如果你问在未来,智能手机后下一代科技产品会是什么?触摸点击操作后,下一种主流交互方式会是怎样?那么在我们的猜测中,用手势操作虚拟界面的MR眼镜,或许就是答案之一。

*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。

超级电容器相关文章:超级电容器原理




关键词: MR眼镜

技术专区

关闭