虚拟现实不现实吗?

今天早上醒来后在床上刷朋友圈(我承认这是糟糕的习惯),看到朋友转发了一篇《界面新闻》翻译的文章。链接:http://t.cn/R5NWwD2 。原文是Steve Baker在Quora发表的一篇关于现有VR(虚拟现实)技术导致头晕问题的回答。原文链接:https://www.quora.com/How-big-an-issue-is-the-nausea-problem-for-Virtual-Reality-products 。

文章的基本观点是,VR技术难以避免头晕,而头晕是不同认知系统所获得的信息之间冲突的结果。简单地说,头晕意味着虚拟现实并没有实现。文中总结造成头晕的两个原因是:1、景深感不一致导致的头晕;2、运动感不一致导致的头晕。那么,这两种头晕真的无法避免吗?

景深

先看由于景深(距离)感不一致导致的头晕。通过视觉对景深感知的方式至少有两种。一种方式依赖于控制晶状体形状的对焦肌肉群。在VR设备中,这种景深感几乎是固定的,即感知到的是经过透镜矫正过的两个显示屏的距离。另一种是我们熟知的现有3D技术(包括3D投影和VR)的基础,即通过综合处理双眼所看到的不同图像获得的景深感。这种景深感在VR设备中是不断变化的。因此,现有VR技术必然造成两种景深感的不一致。

但是,光场(light field)再现技术理论上可以统一这两种景深感。关于光场的原理,可以参考笔者14年7月在朋友圈中分享的对光场相机原理的解释(附后)。要实现效果比较理想的光场显示,按照粗暴的算法,我们需要和现在的高清显示屏像素点一样多的微透镜阵列,即差不多一百万个微透镜,而在每个微透镜背后需要一个百万像素的LCD或OLED显示屏。也就是说,我们需要(1,000,000)^2即1T的像素点。这或许早已超过一些物理极限(所以问题果然还是像素不够吗),笔者并不了解这方面的情况。同时,这似乎也要求现有的图像处理速度提高一百万倍。看起来即使摩尔定律也无法在我们有生之年喂饱它,更何况摩尔定律在现实中已经失效了。

但情况或许并没有那么糟糕。就欺骗人类的视觉感知而言,我们有理由相信光场中存在大量的冗余信息。另一方面,如果可以实时捕捉某些眼部肌肉的运动,或许又可以忽略99/100、9999/10000甚至更多的信息。笔者期待,在不远的将来,可以将基于光场技术的虚拟现实技术所需要的像素和信息总量控制在现有技术所需10倍或100倍的规模。

值得一提的是,光场显示不仅可以通过微透镜阵列实现,理论上也可以通过光纤束实现。下面这幅MagicLeap光学工程师的工作照是否透露了什么?

运动

另一种现有VR技术可能导致的认知不一致是对运动的认知。VR技术所能够虚拟的仅仅是人类视觉对运动的认知。人类对运动的另一种认知基于内耳的半规管(Semicircular canals)。人类有三个骨半规管,其中盛有一种淋巴液(Endolymph)。当头部处于不同的加速度中时,这些淋巴液出于惯性会在半规管中处于不同位置,再由人脑加工成关于运动的认知。

笔者设想的解决方案是通过手术改造半规管中的液体,使之对电磁力敏感。并在半规管周围植入一些微电磁场产生装置来控制这些液体的位置。又或许这些装置放在头盔中也行。除了要对人体进行有限的改造(由此可能带来较多排斥情绪)外,这种技术的实现难度似乎低于试图欺骗视觉的技术。
当然,对于运动的感知还与遍布全身的肌肉有关,寻求真实的反恐精英体验的确比较困难。但是仅欺骗眼睛和半规管应该就足以虚拟开赛车、开飞机甚至开高达的情况了吧。当然,完美的虚拟现实恐怕还得依靠对神经系统运作的进一步理解,人们都说“脑后插管”才是真正的VR。

对VR技术真正的悲观者或许会期待一种关于“不可虚拟性”的终极理论,类似相对论或测不准原理,它划定了技术进步的物理极限。反过来想,如果这种“不可虚拟性”理论真的成立(获得很强的经验证据)就意味着我们在一定程度上以科学的方式证明了我们的物理世界是真实的。后者是一种非常乐观的形而上学假设。而笔者显然更倾向对VR技术的乐观和形而上学上的悲观。

===============================================

光场相机的原理

#新毒物# 光场相机(light field camera),按下快门后捕捉到的不是一张2D图片,而是一块光场。最直接的应用就是真正实现先拍照后对焦(与某些手机上先后多张照片合成的原理不同)。所谓光场就是一个五元函数L(x,y,z,theta,phi),函数值是通过空间中的点(x,y,z)的来自方向(theta,phi)的光信号(如RGB)。

当只关心一块有穷凸面(如一个点,或一个视野的投影)“释放”的光场时,由于通过一条射线上诸点的来自射线原点方向的光信号都是一样的,所以光场信息有冗余,因此只需要一个四维函数就能表达所“释放”的光场,即通过平面上的一个点(x,y)的来自方向(theta,phi)的光信号。这就是光场相机的理论基础。普通相机只记录一个“二维光场”,即每个平面上点(像素点)收到的光信号。而光场可以记录四维光场,即通过每个点(微镜片组)的各方向的光信号(落实于这些微镜组后方感光板上每个像素所接收到的光信号)。

理论上四维光场的信息量巨大,但就实现一些具体应用(如先拍照后对焦)而言可能还有大量冗余信息,应该可以通过一些算法在有限信息(微镜组和像素)前提下较好地实现。我们拭目以待。我最期待的是,利用光场相机实现真3D–扫描眼球即时调整焦点(现在的3D电影焦点是导演事先定好的,想聚焦于给定焦外的事物会头晕)。其实两个镜头传统的3D相机也可算是最简单的四维光场相机了。

原理:http://graphics.stanford.edu/papers/lfcamera/lfcamera-150dpi.pdf

把玩:http://500px.com/lytro

=======================================

配图出处

封面:http://i.vimeocdn.com/video/556134453_1280x720.jpg

MagicLeap工程师图片:https://www.wired.com/wp-content/uploads/2016/04/ff_magic_leap-eric_browy.jpg

半规管图片:http://Blausen.com staff. “Blausen gallery 2014”. Wikiversity Journal of Medicine. DOI:10.15347/wjm/2014.010. ISSN20018762.

光场图片:https://commons.wikimedia.org/wiki/File:Plenoptic_function_b.svg

光场相机原理图片:http://graphics.stanford.edu/papers/lfcamera/lfcamera-150dpi.pdf

Leave a Reply

Your email address will not be published. Required fields are marked *

fifteen − 5 =