说了这么多,裸眼视力和矫正视力3D,VR,AR到底有什么区别

独家专访超多维刘宁:裸眼3D游戏的未来会兼容VR共同发展
当“2CM”的铁律让ShowGirl不再成为2015年ChinaJoy唯一亮点,一大波游戏相关产品自然不会放过成为CJ亮点的机遇。而当VR、游戏外设、电视游戏等一系列产品成为CJ全场焦点时,原本就已经在2015年迎来火热争议的VR,是不是就只能是未来游戏体验的唯一进化方向呢?在ChinaJoy期间,千军游戏有幸采访到了超多维SuperD副总裁刘宁,就3D游戏、3D裸眼技术和VR游戏的发展展开了讨论。
作为一家转型为生态型的技术型企业,超多维SuperD创立十余年来,一直坚持研究3D影像显示技术、产品的开发及产业化。当记者刚与刘宁会面后,刘宁便率先给记者展示了超多维最新研发的产品---3D BOX,这是一款采用人眼追踪系统的3D智能硬件产品,该系统能够实现追踪人眼的观看位置,给人们带来极具感官刺激的3D电影、游戏,图书内容,也提供了一系列的立体应用。
千军游戏记者:目前除了期待3D效果的电影以外,3D游戏一直都是行业里的热点。请问除了电影和APP以及图书,你们有游戏方面的3D内容吗?
刘宁:有的。我们知道,玩家对于尝鲜的需求一直存在,而真正意义上的3D效果游戏也是玩家一直追求的游戏,你可以先继续用你的手机体验一番你自己的游戏,再使用我们的设备感受下3D效果的游戏,我相信这样对比的话会给你带来非常震撼的一个效果。
游戏是我们3D技术重要的应用领域,怎样给玩家带来更加全面的3D游戏体验,也是我们努力的方向。为了3D游戏更加优质的体验,我们未来还会有游戏手柄。目前来说的话,对于一些普通的用户,就可以完全用自己的手机来进行操控。这个iPhone手机就可以相当于是一个游戏手柄,这个就是在3D Box当中体验游戏的一个感觉。大多数用户在尝试过这样的游戏之后再回到普通手机中的游戏时,就没有任何感觉了。
而从技术层面来说,同样的一款游戏,现在我们开发的立体游戏驱动引擎技术已经可以让CP们几乎不用改任何代码,就可以转成立体的了,相当于你说的自动适配。在这样的情况下,要让一款普通的游戏转化为裸眼立体游戏,CP其实是可以不用改任何一项代码。
也正如你所想的,既然能够帮助CP更高效地为玩家提供3D游戏内容,我们已经和山东小伙伴、成都动鱼数码有限公司合作并各提供数百万的资金扶持,用于3D技术在游戏开发与设计领域的推广普及,同时,也与蜗牛游戏,皇玩科技,数字天空,闪联云视,指游方寸,精忠环球,风际游戏等国内厂商建立了长期合作的关系,未来也希望和诸多合作伙伴们共同对外推出越来越多3D游戏内容。
千军游戏记者:我在网上看到你们做的一个3D游戏应用市场了。受限于3D游戏的发展规模,3D游戏分发市场也一直没能迎来爆发,你们是怎么看待3D游戏或者说3D内容分发市场的未来呢?
刘宁:对,你所说的这个游戏平台应该是叫做3D Store,但它并不仅仅是只包含3D游戏的一个商店平台,只要是关于裸眼3D,关于3D的内容我们都有会通过这一平台来提供。3D的内容比较分散,从内容的量来说,并不是缺少,而是分散在各个地方,目前并没有这样一个入口和平台来专门聚集3D的内容。我们相信3D游戏、3D电影给人们带来的全新体验会逐渐被用户接受,自然也就相信3D内容分发平台未来存在大发展的机会,我们是希望借用我们的应用商店,可以把更多的3D内容聚合在一起提供给用户。
千军游戏记者:我现在体验了你们两款设备,3D的效果的确是存在的,但是如果是换了一个游戏的话,或者是换了一个手机接入到APP以后,是不是可以体验到这一款游戏呢?
刘宁:目前对于裸眼3D智能硬件来说,现在就只是支持iPhone,我们还有其他的设备,安卓手机有使用我们的方案,和这个是差不多的。所以像这一款产品的话,我们主打的是iPhone。未来的话,我们希望所有的手机,可以采用裸眼3D的技术,带给用户全新的视觉和交互体验。
千军游戏记者:这种技术是不是很多年以前就已经有了?裸眼3D的技术究竟复杂不复杂?
刘宁:对,裸眼3D的基础理论其实并不复杂,那和我们的左眼看到和右眼看到的,反映到大脑中形成的立体,基本的原理是一样的。但是如果你要做的好的话,其实是非常的困难的,比如很多人反馈,看到了3D就会觉得晕,会觉得不舒服,这些东西通过我们多年的积累,近十年的研发去解决掉,我们提供的人眼追踪技术,不会是要求用户只在某一个固定的位置看,或者是一看就会晕了,这个不会有这种感觉,我们会时时跟踪你。
刘宁:就游戏而言,你感觉这个游戏的效果怎么样?
千军游戏记者:效果不错,如果同一款游戏的话,我回到2D的状态,就不愿意玩了。体验过了3D游戏,以后就会觉得2D游戏感觉不舒服。这种体验性的产品不应该只在线上销售,有没有想法开设大量线下体验点?
刘宁:我们现在线上和线下都是有同步的推进,不会只是在线上卖,或者是线下做体验,因为视觉的技术,一定是要让用户有眼见为实的感觉,不然的话,裸眼的技术已经是被很多人炒烂了,大家第一感觉是这个东西不行,效果不能接受。很多年以前,中关村门口,就有人花十几块钱给手机贴一个膜就可以看到立体了,但效果完全不能被用户接受。主要是这个概念可以让用户有一种不一样的体验,不一样的感受,所以我们希望通过这些技术,在市面上推动,让用户知道,其实我们的努力和技术,同样可以带给用户不一样的体验,并不是这个概念不好,而是很多人没有把这个事做好。
千军游戏记者:就好像是一些软硬件的结合,给用户带来一些新的体验?在软件层面,我们知道现在内容越来越值钱了。纵然你们现在可以帮助将游戏效果3D化,但具体是厂商给你们费用,还是你们给他们费用?
刘宁:目前在推广的初期,我们一定是会有一些很吸引的条件,包括一些资金支持,分成策略上的优惠与扶持,有一些CP是我们的战略合作伙伴。例如,我们已经和山东小伙伴、成都动鱼数码有限公司合作并各提供数百万的资金扶持,用于裸眼3D技术在游戏开发与设计领域的推广普及。对于很多CP而言,裸眼3D游戏市场是一个全新的市场,是一片蓝海,和我们合作的话,未来就是一个长期合作伙伴的关系,等这个市场做大以后,他们就会获得一个好的市场竞争优势。
千军游戏记者:这一两年的话,游戏会有不同的体验,大家也是觉得裸眼3D这一块做了这么多年,也没有真正被用户接受,而VR的历史虽然同样久远,却在这两年被市场真正重视起来,您觉得未来3D领域会有一些怎么样的改进?
刘宁:对于VR还是AR的内容来说,其实和裸眼3D的内容没有本质区别,左眼和右眼看到的没有任何区别。我举一个例子,我们今天可以把我们的手机当成是一个窗户,我这样移动的时候,透过陀螺仪的反馈,我们就可以通过这个窗户看到左右方向不同的场景,用我们的技术挪动这个手机,就像一扇窗户一样,看到外不一样的景色,这个就是VR在我们这一块技术上的应用,所以完全不用有任何的担心。
千军游戏记者:在今年ChinaJoy里,几乎每一个会场都充斥着IP、泛娱乐的元素,超多维,在未来有没有想过涉足娱乐行业?
刘宁:泛娱乐化是目前应用技术发展的一个重要方向。不管是娱乐或者是泛娱乐的概念,对用户来说,都是消费内容,享受内容。我们提供了这样的平台,娱乐和泛娱乐的内容就是很重要的一部分。但是我们并不认为,只有娱乐和泛娱乐才能给用户消费的内容,我们其他的互动和交互手段以及应用,都能够解决用户日常生活中的很多问题,或者是,在传统的所谓解决痛点的过程中,引入这样的3D互动,使用户得到更好的体验与回馈,这些都可以是泛娱乐化的一种概念。
裸眼3D游戏,作为一种以三维立体模型实现的三维成像游戏产品,对比目前的2D游戏的确拥有完全不一样的体验。在游戏主机成功解禁,专业游戏玩家对于游戏硬件的需求重新燃起,新的硬件新的玩法也迎来新的发展机遇之时,裸眼3D游戏凭借着与VR游戏同样的全新体验,能够在体验上不输于VR, 超多维的3D裸眼技术还能让人们不用戴上3D眼镜也可以玩儿VR游戏,感受VR的效果。相信这种与人们现有的日常生活习惯差异不是特别之大,得到的游戏体验又是特别之惊艳的技术,其未来的发展空间不见得就会比VR小。
免责声明:本文仅代表作者个人观点,与环球网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
环球时报系产品
扫描关注环球网官方微信
扫描关注 这里是美国微信公众号
扫描关注更多环球微信公众号当前位置 & &
& 身临其境看激情片 你们说的VR到底是啥?
身临其境看激情片 你们说的VR到底是啥?
21:12:38&&出处:&&
编辑:鲲鹏 &&)
让小伙伴们也看看:
阅读更多:
好文共享:
文章观点支持
当前平均分:0(0 次打分)
[01-21][01-21][01-20][01-19][01-18][01-18][01-15][01-14][01-14][01-13]
登录驱动之家
没有帐号?
用合作网站帐户直接登录最近被“裸眼3D”刷屏了!是比VR好玩,还是比VR怎样? - 知乎96被浏览19615分享邀请回答191 条评论分享收藏感谢收起1315 条评论分享收藏感谢收起查看更多回答3 个回答被折叠()技术小站:
厂商活动:
地点:北京
时间:10月14日 13:00 - 17:30
地点:北京
时间:10月16日 14:00 - 17:00
地点:武汉
时间:10月19日 9:00 - 18:00
地点:深圳
时间:11月8日 13:00 - 17:30
零基础快速成为Android项目开发工程师
ARM裸机开发实战(第1期加强版)
张飞硬件设计与开发视频教程
从0到1自己动手写嵌入式操作系统
张飞电子视频全套共十部
讲师:灵训教育
讲师:林超文
讲师:李述铜
讲师:张飞
移入鼠标可放大二维码
汇总:所有你该知道的AR/VR/3D技术与发展
来源:yivian
作者:steve日 09:34
[导读] 3D的意义并不只是为了呈现更加可信的真实世界,而是将数字世界变成现实生活的一部分,让它的每一个细节都变得像现实世界一样真实。
3D和&全息影像&这些词听得大家耳朵都起茧了。从松下在2010年发布首个3D电视系统起,到现在的虚拟现实和增强现实技术,这些词已经融入到我们的流行文化中,越来越成为我们所关注的焦点。毕竟现实世界是立体的,我们又何必把自己的体验限制在平面的屏幕上呢?
从2D过渡到3D是一个自然的过程,正如上世纪50年代的时候,黑白电影和黑白电视转变为彩色一样。但是在很多方面来看,从2D到3D带来的影响或许会更大。
3D的意义并不只是为了呈现更加可信的真实世界,而是将数字世界变成现实生活的一部分,让它的每一个细节都变得像现实世界一样真实。
这个即将到来的分水岭将对我们的工作、学习、社交和娱乐方式产生深刻的影响。我们将能突破现实世界的物理限制,我们的想象力有多大,世界就有多大。
当然,这个转变也会影响我们使用的设备,以及我们与机器的交互方式。这也是为什么谷歌、Facebook和苹果这样的公司都在尽快抢占3D市场的原因:谁赢得了3D战争,谁就能掌握下一代用户交互的控制权。
但现在这还只是一个憧憬而已。尽管之前已经有人试过打开3D市场,但是我们仍不得不依赖狭窄的屏幕来进入电子世界。为什么?因为现在的3D存在着许多不足,目前的技术水平还不足以实现一个真实可信的世界,所以消费者还在继续等待。
接下来YiViAn想以用户的角度向你全面地介绍3D技术,VR/AR头显和裸眼3D显示屏等3D产品正在面临的挑战,以及这些产品将如何成为我们与数字世界之间的直观交互界面。
我们为什么需要三维画面?
在深入了解3D技术之前,我们需要先理解这项技术的原理。
你可以试一下眯着一只眼镜来穿针,你会发现这比你想象中的更困难。进化已经改变了人类对3D的感知,让我们可以更快更准确地掌握现实世界的信息。
我们是如何在生理层面上获取深度感知的?这是一个复杂的课题。人类的眼睛和大脑可以感受到很多深度提示,当这些提示在现实世界中出现的时候,它们之间会互相加强,在我们的脑海中形成清晰的3D环境图像。
立体视觉(双眼视差)
如果我们想用一个3D错觉来欺骗视觉系统和大脑,我们可能无法真实地重现所有的深度提示,这样形成的3D体验会有所偏差。因此,我们需要理解一些主要的深度提示。
无论你相不相信,你的两只眼睛所看到的东西是不一样的。它们看物体的角度会有细微的不同,所以视网膜得到的图像也会有所差别。
我们看远处的物体时,左右眼睛之间的视差会比较小。但在物体较近的时候,视差便会增大。这个差别可以让大脑测量和&感受&到物体的距离,触发对深度信息的感知。
现在大部分的3D技术都是依靠立体视觉来欺骗大脑, 让大脑相信自己感受到了深度信息。这些技术会向两只眼睛呈现不同的图像,如果你看过3D电影的话(例如《阿凡达》和《星球大战》),那你应该已经通过3D眼镜体验过了这种效果。
更为先进的&自动立体&显示技术可以将不同图像以不同的方向投射到空间中,这样眼睛就能接收到不同的图像,不需要佩戴眼镜。
立体视觉是最明显的深度提示,但它不是唯一的线索。人类其实只通过一只眼睛也能感受到深度。
闭上一只眼睛,然后将食指放在另一只眼睛前面保持不动。现在稍微将头上下左右地运动。这时你会看到背景好像是在相对手指运动。更准确地说,看上去是你的手指比背景移动得更快。
这种现象叫做运动视差,这是你可以使用一只眼睛感受到深度的原因。如果要提供真实的3D感受,运动视差是一个很重要的效果,因为观众与屏幕的相对位移是非常轻微的。
没有运动视差的立体视觉仍然可以让你感受到深度,但是这种3D图像会出现变形。例如在3D地图中的建筑物会开始出现扭曲, 背景的物体看上去好像是被前景的物体故意遮挡一样,如果你仔细看的话会觉得相当难受。
运动视差跟我们的视觉感受密切相关&&事实上我们所看到的近大远小效果正是一种深度提示。
就算你正在完全静止地坐着(没有运动视差), 然后闭上一只眼睛(没有立体视觉),这样你仍然可以分辨远处和近处的物体。
这时再尝试上面的手指实验,将你的食指放在眼前静止不动,然后聚精会神地盯着这根手指。在眼镜聚焦的过程中,你会发现背景会变得模糊。现在将你的焦点放在背景上,你会发现手指变得模糊,而背景变得清晰了。这跟现代照相机的工作原理是一样的,我们的眼睛具有改变焦点的能力。
眼睛是通过睫状肌的收缩来改变晶状体的形状,从而达到变焦的功能。
那么眼睛的睫状肌是怎么知道应该用多大的力气来收缩的呢?答案是我们的大脑有一个反馈回路,睫状肌会不断地收缩和舒张,直到大脑得到最清晰的图像为止。这其实是一个瞬间完成的动作,但如果过于频繁地调节睫状肌的话,我们的眼睛会感到很疲劳。
只有在距离两米以内的物体才能触发睫状肌的运动,超过这个距离,眼镜就会开始放松,将焦点放在无限远处。
视觉辐辏与视觉调节的冲突
当你的双眼聚焦于附近的一个点时,它们其实会在眼眶中旋转。集中视线的时候眼外肌会自动伸展,大脑可以感受到这个动作并且将其视为一种深度提示。如果你把焦点放在10米以内的物体上,你会感受到眼球的会聚。
所以当我们用两只眼睛看世界的时候会用上两组不同的肌肉。一组肌肉负责让双眼会聚(辐辏)到同一个焦点上,而另一组肌肉则负责调节视网膜成像的清晰度。如果眼睛辐辏不当,那我们就会看到双重影像。如果视觉调节不当,那我们就会看到模糊的影像。
在现实世界中,视觉辐辏和视觉调节是相辅相成的。事实上,触发这两种反应的神经是相连的。
不过在观看3D、虚拟现实或者增强现实的内容时,我们通常都会将焦点放在特定的位置上(例如3D影院的银幕),但是双眼接收到的信息会让双眼会聚到另外的距离(例如从银幕冲出来的巨龙)。
这时我们的大脑将难以协调这两种冲突的信号,这也是有些观众在观看3D电影的时候会感到眼睛疲劳甚至是恶心的原因。
你还记得那些用卡纸做成的红蓝立体眼镜吗?这种&滤光眼镜&可以让让左眼只看到红光,右眼只看到蓝光。通常的立体图像会在左眼叠加一层红色的图像,在右眼叠加一层蓝色的图像。
当我们通过滤光眼镜观看的时候,大脑的视觉皮层会将所看到的图像融合认为是三维场景,而且画面的色彩也会被修正。
现在所有基于眼镜实现的3D效果,包括虚拟现实和增强头显都是利用这样的工作原理&&通过物理方式分离左眼和右眼所看到的影像来营造立体视觉。
你现在去看电影的时候会拿到一副看上去完全不像偏光眼镜的3D眼镜。这种眼镜并不会根据颜色来过滤图像,而是根据光的偏振来过滤图像。
我们可以把光子想象成一种会振动的实体,它们会沿着水平方向或者垂直方向振动。
在电影屏幕上,一个特制的投影仪会生成两幅互相重叠的图像。其中一幅图像只会向观众发射水平振动的光子,而另一幅图像则会发送垂直振动的光子。而这种眼镜的偏光镜片可以确保两幅图像可以分别到达相应的眼睛。
如果你有一副偏光眼镜(不要从电影院偷出来哦),你可以用它来观看现实世界的偏振。把这副眼镜保持在你视线2英尺的距离上,然后通过它来观看汽车挡风玻璃或者水面。在你将眼镜旋转90度的过程中,你应该会看到穿过镜片的眩光的出现和消失。这就是偏光镜的工作原理。
偏光镜可以允许所有的彩色色谱进入到眼睛中, 这样子3D画面的质量也会得到增强。
从3D影像质量来看,这种眼镜只能提供立体视觉这一种深度提示。所以尽管你可以看到图像的深度,但如果你离开座位在电影院内走动的话,你将会看不清周围的物体,背景会以与运动视差相反的方向移动,也就是像是会跟着你一样。
还有一个更严重的问题是这种眼镜缺乏视觉调节的支持,这会导致视觉辐辏和调节之间产生冲突。如果你盯着一条龙从屏幕向你靠近,你很快就会感受到极度的视觉不适。
这也是为什么电影中的龙只会非常快速地飞过&&这样做只是为了达到惊吓的效果,同时避免你的眼睛感到不适。
如果你家里有一台3D电视的话,它配套的眼镜可能不是偏光类型的,而是采用了&主动快门&的技术。这种电视会交替显示右眼和左眼的图像,而眼镜会按照电视的频率同步遮挡相应的眼睛。如果切换的频率足够快的话,大脑可以将这两种信号混合成一幅连贯的3D影像。
为什么不使用偏光眼镜呢?虽然有些电视会采用这种技术,但是不同方向的偏振图像必须来自不同的像素,所以观众看到的图像分辨率会减半。(但是电影院里的两幅图像是分别投影在屏幕上的,而且它们可以互相重叠,所以不会导致分辨率下降。)
主动快门式3D眼镜一般只能支持立体图像这一种深度提示。一些更加先进的系统会采用追踪技术来调整内容,通过追踪观众的头部实现运动视差的支持,但是只能用于一位观众。
虚拟现实是一种全新的3D渲染类型。这项技术最近得到了广泛的关注。现在已经有很多人体验过虚拟现实头显了, 而未来几年将有更多的人能够体验到这项技术。那么, 虚拟现实的工作原理是什么呢?
VR头显不是通过过滤来自外部屏幕的内容来工作的,而是生成自己的双眼图像,并直接呈现给相应的眼睛。VR头显通常包含两个微型显示器(左眼一个,右眼一个),它们现实的头像会经过光学元件的放大和调整,并显示在用户眼前的特定位置上。
如果显示器的分辨率足够高的话,图像的放大比例也会更高,这样用户就会看到更广阔的视场,而沉浸体验也会更好。
现在像Oculus Rift这样的虚拟现实系统会追踪用户的位置,为立体视觉增加运动视差效果。
目前版本的虚拟现实系统并不支持视觉调节,并且容易造成视觉辐辏和调节的冲突。为了确保用户体验,这个技术难题是必须要解决的。这些系统现在也不能完全解眼镜动作的问题(范围有限和失真),但是这个问题未来可能会通过眼球追踪技术来解决。
同样的,增强现实头显也变得越来越普遍。增强现实技术可以把数字世界和现实世界融合在一起。
为了确保真实感,增强现实系统不仅需要追踪用户在真实世界的头部运动,同时也要考虑自己所在的现实3D环境。
如果Hololens和Magic Leap最近的报道是真的话,增强现实领域现在已经出现了巨大的飞跃。
正如我们的两只眼睛看到的世界会有所不同,现实世界的光线也是从不同的方向进入瞳孔之中的。为了触发视觉调节,近眼显示屏必须能够模拟独立从各个方向发射的光线。这种光信号被称为光场,这是虚拟现实和增强现实产品未来的关键。
在实现这种技术之前,我们只能继续忍受头痛了。
这些是头显设备需要克服的挑战,它们面临的另外一个问题是融入社会和文化(比如Google Glass的遭遇)。如果想同时以多个视角显示世界,我们则需要利用裸眼3D显示系统。
如果不佩戴任何设备,我们可以如何体验3D图像呢?
看到这里, 我想你应该明白如果想提供立体视觉,3D屏幕必须朝着不同的空间方向投射出不同视角的影像内容。这样子,观众的左眼和右眼将会自然地看到不同的图像,从而触发深度感知,因此这种系统被称作&自动立体显示&。
因为3D图像是依靠屏幕投射的,所以只要3D效果不是太夸张的话,自动立体显示本身可以支持支持视觉辐辏和视觉调节。
但是这并不代表这种系统不会造成眼睛不适。事实上,这种系统在不同视觉区域的转换方面也有另外一个问题。
这种系统的图像会出现频繁的跳跃、亮度变换、暗带、立体视觉中断等问题,最糟糕的是左右眼看到的内容被颠倒,导致完全相反的3D感受。
那么我们应该如何解决这些问题呢?
3M公司在2009年开始对这项科技进行商业化生产。
棱镜膜会被插入到普通LCD屏幕背光的薄膜堆栈之中,可以分别通过来自左右某一方向的光线来照亮,当光源来自左边的时候,LCD的图像将会在投射在右边的区域, 当光源来自右边的时候,图像会在左边的区域投射。
快速切换光源的方向,并按照同样的频率改变左右眼看到在LCD看到内容,这样可以产生立体视觉,但是前提是屏幕需要放在观看者的正前方。如果通过其他视角观看的话,立体效果将会消失,图像也会变会平面。
因为观看的范围非常有限,所以这种显示技术通过称为&2.5D&。
在一个2D屏幕上面加入一块被开了许多小口的遮盖层,当我们通过这些小口观察屏幕的时候,我们不能看到下面的所有像素。我们能够看到的像素实际上取决于观看角度,观察者的左眼和右眼可能会看到不同的像素组。
&视差屏障&这个概念早在一个世纪以前就被发现了, 夏普在十年前首次将其投入到了商业应用。
经过改良,现在这项技术采用了可切换的屏障,这实际上是另一个活动的屏幕层,它可以产生屏障效果,也可以变为透明,将屏幕恢复到2D模式,以显示完整的分辨率。
早在2011年的时候,HTC EVO 3D和LG Optimus 3D就已经登上头条了,因为它们是全球率先支持3D功能的智能手机。但它们其实只是2.5D技术的另一个例子,只能在非常狭窄的视角范围提供3D效果。
从技术上讲,视差屏障可以不断扩展形成更宽的视角。但问题是视角越宽,你所需要屏蔽的光线就越多,这样就会造成耗电量过大的问题,尤其是对于移动设备来说。
在一个2D屏幕上面覆盖一层微型凸透镜,我们都知道凸透镜可以聚焦来自远处光源的平行光,小孩子用放大镜点着东西也是利用了这个原理。
这些透镜可以收集从屏幕像素发出的光线,并将其转变为具有方向的光束。我们把这个现象称为准直(collimation)。
光束的方向会随着透镜下方的像素位置而改变。这样的话,不同的像素将会跟随光束投射到不同的方向上。柱状透镜技术最终可以达到视差屏障同样的效果(都是利用在不同的空间位置看到的像素组不同的原理),只是柱状透镜不会遮挡任何的光线。
那为什么我们在市面上没有看到柱状透镜3D屏幕呢?
这不是因为没有人尝试,东芝就在2011年在日本发布过第一代系统。但是这种屏幕在仔细观看的时候会出现了一些难以接受的视觉假象,这主要是由透镜产生的问题。
首先,屏幕像素通常都是由一个面积较小的发射区和一个面积较大的&黑色矩阵&组成的,后者是不发光的。在经过透镜的处理之后,单个像素的发射区和黑色矩阵会被偏折到空间的不同方向。这样会导致3D画面出现非常明显的黑色区域。唯一能解决这个问题的方法是对透镜进行&散焦&,但是这样做会导致不同视角之间的干扰,图像也会变得模糊。
其次,只用单个透镜是很难在广视角下达到合适的准直的。这也是相机镜头和显微镜会使用复合透镜而不是单透镜的原因。因此柱状透镜系统只能在较窄的视角(大约20度)观察到真正的运动视差。超出这个范围的话,3D图像就会不断重复,感觉就像观看的角度不对一样,图像也会变得越来越模糊。
较窄的视场和糟糕的视觉转换是柱状透镜屏幕的最大缺陷。对于电视系统来说,如果观众会自动调整他们的头部并且不会走来走去的话,那么现在的柱状透镜技术是可以接受的。
但是在手机和汽车这样的使用场景下,头部是肯定会有移动的,这样柱状透镜系统就很难达到理想的效果了。
那么,我们应该如何设计含有宽广视场和流畅转换的裸眼3D视觉系统呢?
如果我知道你的眼睛和屏幕之间的相对位置,我可以计算出相应的视角,并尝试将图像调整至眼睛的朝向。只要我能快速地检测到你的眼睛的位置,并且有同样快速的图像调整机制,那我就能确保你在任何视角都能看到立体视觉,以及平滑的运动视差渲染。
这就是眼部追踪自动立体屏幕的运作原理。
这种方法的好处是:屏幕在任何时刻都只需要渲染两个视角的画面,这样可以保持大部分的屏幕像素。从实际的角度上讲,眼部追踪系统可以结合目前视差屏障技术一起使用,避免柱状透镜系统产生的光学假象。
但是眼部追踪并不是万能的。首先,它每次只能支持一个观众,而且,眼睛的追踪需要设备配置额外的摄像头,以及在后台持续运行用于预测眼睛位置的复杂软件。
对于电视系统来说,尺寸和功耗不是一个大问题,但是这会对移动设备造成巨大的影响。
此外,即使是最好的眼部追踪系统也会出现延迟或者错误,常见的原因包括灯光的改变,眼睛被头发或眼镜遮挡,摄像头检测到另外一双眼睛,或者是观众的头部运动得太快。当这个系统出现错误时,观众会看到非常不适的视觉效果。
裸眼3D技术的最新发展是衍射&多视角&背光LCD屏幕。衍射是光的一种特性,光线在遇到亚微米物体时会出现偏折,所以这就意味着我们要准备进入纳米技术的领域了。
你没看错,就是纳米技术。
普通的LCD屏幕背光会发出随机分布的光线,也就是每个LCD像素都会向广阔的空间发射光线。不过衍射背光可以发出统一方向的光线(光场),而且可以设置某个LCD像素发出单向的光线。通过这样的方式,不同的像素可以向不同的方向发送自己的信号。
跟柱状透镜一样,衍射背光的方法也可以充分利用入射光。但是跟柱状透镜不同的是,衍射背光可以同时处理好较小和较大的光线发射角度,以及完全控制每个视角的角度扩散。如果设计合理的话,视角之间是不会产生暗区的,而且生成的3D图像也能跟视差屏障一样清晰。
衍射方式的另一个特点是,光线调整功能不会影响直接穿过屏幕的光线。
这样一来屏幕的透明度就可以被完整保留,所以这种屏幕可以添加在下方加入正常的背光,并恢复到全像素的2D模式。这为透视裸眼3D显示技术的发展铺平了道路。
衍射方法的主要问题在于颜色的一致性。衍射结构通常会把不同颜色的光线发射到不同的方向,而这种色散现象需要在系统层级进行抵消。
然而,3D技术的发展不会只止步于看到3D图像,它将会打开一种全新的用户交互范式。
3D体验很快就能达到适合消费的质量,而且我们也不会在担心自己的3D体验被打断。
在虚拟现实和增强显示系统中,这意味着要增加视场,支持视觉调节,并且提高系统在头部快速运动时的响应速度。
在裸眼3D显示技术中,这意味者要向用户提供足够的自由移动空间,并避免出现各种视觉假象,比如3D丢失、暗区、视觉跳跃,或者运动视差延迟。
一旦幻象变得真实可信,我们就会忘记幻象背后的技术,并且把虚拟现实世界当成是真实世界,至少在我们撞上真实存在的墙壁之前。如果要实现这样的幻想,我们需要考虑到现实世界是有物理反应的。
当我们把电子数据转化成我们可以在真实世界感知的光信号的时候,我们需要将身体的真实反应数据发回数字世界进行交互。
在虚拟现实和增强现实头显中,这点可以通过用户佩戴或放置在周围环境的传感器和摄像头来实现。我们可以预见未来将会出现搭载传感器的智能服装,不过它们可能会较为笨重。
在3D屏幕上,这项任务可以直接由屏幕来完成。 事实上,Synaptics研发的Hover Touch技术已经能够可以实现非触摸手指感应了。很快, 我们只需要动动手指就可以与半空中的全息影像进行交互了。
一旦电子世界理解了用户的反应机制。 那么两者就能更自然地融为一体。换言之, 数字信号可以在我们撞上一面墙之前先在上面打开一扇门。
但是如果能在虚拟世界看得见摸得着这面墙,这样不是更好吗? 但是我们怎样把触感带进这个世界呢?
这个问题涉及到触觉反馈的领域,如果你有打开过手机的振动模式的话,那你就应该体验过这种反馈了。
例如一种配有振动单元的手套和其他服装,或者利用微弱的电信号来模拟皮肤,如果调整的当的话,你身体的不同部位将能感受到与视觉效果相匹配的触感 。
当然,不是人人都适合穿上这种衣服布满电线的服装或感受电流。
对于基于屏幕的设备来说,超声波触觉就可以让你直接在空中触摸到屏幕,不需要使用任何智能服装。这项技术是从屏幕的四周发出超声波,这些超声波的强度可以根据用户的手指动作进行调整。
信不信由你,这些强化声波的强度足以让你的皮肤感应到。Ultrahaptics这样的公司已经开始准备将这项技术推向市场。
虽然今天的虚拟现实和增强显示头显越来越普遍, 但是它们在移动和社交方面仍有诸多限制,使得它们难以实现全面交互的3D体验。使用手指触觉技术的3D屏幕将能克服这一障碍,在未来让我们以更直接的方式与数字世界进行交互。
我在最近的一篇博客文章中将这种平台称为全息现实(Holographic Reality),并讲述了全息现实显示屏可以被应用在我们日常生活的方方面面。未来的所有窗户、桌子、墙壁和门都会有全息现实功能,我们在办公室、家中、汽车甚至是公共场所使用的通信设备都会搭载全息现实的元件。我们将可以随时随地访问虚拟世界,无需再佩戴头显或者连接线缆。
在过去5年里, 3D技术、显示技术和头显领域已经出现了极大的发展。
在如此迅猛的技术发展之下,不难想象在未来5年我们将会在全景现实的世界中交流、学习、工作、购物或娱乐, 这将会通过由头显和3D屏幕等产品组成的先进3D生态系统来实现。
VR相关文章
VR相关下载
AR相关文章
AR相关下载
技术交流、积极发言! 发表评请遵守相关规定。
创新实用技术专题
Android和iOS两个平台在技术和应用程序商店战略上存在明显的不同,开发人员也...
供应链服务
商务及广告合作
Jeffery Guo
关注我们的微信
供应链服务 PCB/IC/PCBA
版权所有 (C) 深圳华强聚丰电子科技有限公司
电信与信息服务业务经营许可证:粤B2-

我要回帖

更多关于 康得新 财务 玉裸眼3 的文章

 

随机推荐