学习VR虚拟现实需要掌握哪些技术

  vr虚拟现实技术应用广泛,是我们所有目共睹的,想要学的人越来越多,如何学习虚拟现实技术vr?千锋作为VR技术培训领先者,先给大家分享一下vr初级入门教程。
  随着VR虚拟现实的爆发,越来越多的知名企业开始布局VR产业,也期望在未来的VR市场中,能占据有利地位。如果你现在想研究VR,不妨停下脚步,看看如何从VR虚拟现实技术开始着手。因为之前有人问过我,这里结合自己的经验和参考国外的一些教程,将如何学习VR虚拟现实技术做以下整理,vr初级入门教程开始。
  原生VR app开发
  开发VR app或者游戏可以让VR内容更加丰富,刺激整个VR大环境的发展, 进而吸引更多的用户接触VR,让整个VR生态更繁荣。你开发的应用将安装在MAC、PC、Play Station 或者安卓、iOS上面。
  这将是VR的其中一个边界。你需要弄清楚VR的UI/UX,然后让用户以正确的方式充分享受VR带来的益处。你需要学习一种3D引擎。Unity是个优秀的入门引擎,掌握它需要学习C#和Javascript语言。
  学习Unity的最佳方式就是自己去尝试着开发一个简单的小游戏,在过程中遇到问题的地方就去Google一下,或者去Stackoverflow寻求帮助。其次就是和VR开发者朋友们多交流,互帮互助。
  教程都是关于VR的输出设备或者说VR头显,如果对VR输入设备感兴趣,想开发VR的UI/UX,Leap Motion是个不错的选择(当然还有Oculus touch 或者 HTC Vive),可以去leapmotion官方看看开发者文档。
  最后,除了基础编程知识,我建议再补充一些数学知识。
  VR电影的录制
  VR电影是VR另一个边界,方法是使用特殊的全景摄像机来录制360度视角的影片。
  拍摄全景视频,首先需要一套VR摄影设备。目前有很多解决方案,这里不一一列举了,有兴趣的同学可以Google搜索「VR camera rig」。光场相机将会是这个领域的颠覆者,其中360Heros全景相机架是个不错的选择。
  VR web开发
  毋庸置疑,原生VR应用和游戏以及VR视频会最先普及,但是最终,肯定会走向web。还记得「一次编写,处处运行」这句古老的名言吗?网页就是实现这一承诺的最大可能。与其开发仅能在单一平台或VR头显上运行的原生应用程序,开发者们不如采用web来打造自己的VR体验,这样就可以简简单单通过浏览器运行了。
  随着用户们对原生VR应用需求的膨胀,他们也一定期待开发者创造出VR的web应用。
  首先,VR web体验将带给你类似浏览facebook或youtube的体验。用户在web上,可以将视频切换到「VR模式」。和VR电影不同的是,用户可以在VR环境中来做VR购物、VR约会或者VR在线课程的学习。
  是否对VR技术的入门知识有个大概的了解呢?其实VR开发并不是什么特别的新东西,它跟传统的Native和Web开发相差并不远。
  如何学习虚拟现实技术vr? 从vr初级入门教程开始,以上是千锋给大家分享的,希望能帮助到大家。
阅读(...) 评论()想自学VR虚拟现实技术的大神看过来--百度百家
想自学VR虚拟现实技术的大神看过来
分享到微信朋友圈
VR虚拟现实的普及,肯定离不开开发人员的艰苦卓绝的熬夜与技术的创新,那对于一个VR新手来说,要怎么办呢?
VR虚拟现实的普及,肯定离不开开发人员的艰苦卓绝的熬夜与技术的创新,那对于一个VR新手来说,要怎么办呢?你首先得从VR技术知识入手,包括:原生VR app开发,VR电影的录制和VR web开发。因为涉及到用户端VR APP、VR视频的展示、VR内容平台的支持,这些建立起来才能有非常重要的VR应用,也才能带动VR领域的创新和发展。
原生VR app开发
开发VR app或者游戏可以让VR内容更加丰富,刺激整个VR大环境的发展, 进而吸引更多的用户接触VR,让整个VR生态更繁荣。你开发的应用将安装在MAC、PC、Play Station 或者安卓、iOS上面。
这将是VR的其中一个边界。你需要弄清楚VR的UI/UX,然后让用户以正确的方式充分享受VR带来的益处。你需要学习一种3D引擎。Unity是个优秀的入门引擎,掌握它需要学习C#和Javascript语言。
如果你是个编程新手,我推荐你看《JavaScript DOM编程艺术》、《Eloquent JavaScript》这两本;如果你已经有一定程度编程经验,可以直接看《JavaScript语言精粹》。对于Unity,可以看一下Unity3D官网给出的Roll-a-ball,是个不错的小教程,可以用它初步熟悉下Unity。看完了这个,就可以直接去Oculus官网的Developer Center学习文档和SDK了。
个人认为,学习Unity的最佳方式就是自己去尝试着开发一个简单的小游戏,在过程中遇到问题的地方就去Google一下,或者去Stackoverflow寻求帮助。其次就是和VR开发者论坛的朋友们多交流,互帮互助。
其次,刚刚上面讲的教程都是关于VR的输出设备或者说VR头显,如果你对VR输入设备感兴趣,想开发VR的UI/UX,Leap Motion是个不错的选择(当然还有Oculus touch 或者 HTC Vive),可以去leapmotion官方看看开发者文档。
最后,除了基础编程知识,我建议再补充一些数学知识,推荐《Essential Mathematics for Games and Interactive Application:A Programmer’s Guide,Second Edition》。
VR电影的录制
VR电影是VR另一个边界,方法是使用特殊的全景摄像机来录制360度视角的影片。
拍摄全景视频,首先需要一套VR摄影设备。目前有很多解决方案,这里不一一列举了,有兴趣的朋友可以Google搜索「VR camera rig」。光场相机将会是这个领域的颠覆者,其中360Heros全景相机架是个不错的选择。
平时如果你想给你的朋友分享一段普通视频,原生的VR视频足矣。但如果你想拍一段电影,你需要对视频做编辑,这时候普通的视频编辑器就不能用了,必须使用VR视频编辑器,比如「SpliceVR Editor」。
VR web开发
毋庸置疑,原生VR应用和游戏以及VR视频会最先普及,但是最终,肯定会走向web。开发者们还记得「一次编写,处处运行」这句古老的名言吗?网页就是我们实现这一承诺的最大可能。与其开发仅能在单一平台或VR头显上运行的原生应用程序,开发者们不如采用web来打造自己的VR体验,这样就可以简简单单通过浏览器运行了。Google和Mozilla携手致力于WebVR的建设,我们可以预见3D版本的万维网的到来。
随着用户们对原生VR应用需求的膨胀,他们也一定期待开发者创造出VR的web应用。
首先,VR web体验将带给你类似浏览facebook或youtube的体验。用户在web上,可以将视频切换到「VR模式」。和VR电影不同的是,用户可以在VR环境中来做VR购物、VR约会或者VR在线课程的学习。
首先你需要学习一下three.js。three.js是一款运行在浏览器中的 3D 引擎,你可以用它创建各种3D场景,包括了摄影机、光影、材质等各种对象,它是由JavaScript编写的WebGL第三方库。你可以去它的官网学习:threejs.org。然后参考Github上的 borismus/webvr-boilerplate项目试着实现一个简单的VR网站。记住使用Chromium或者Mozilla nightly来测试你的VR站,参考。接下来,试着向你的场景中加入3D模型,并试着改变它的位置,并将它旋转,threejs.org的examples中有丰富的小例子。假如你想向其中加入一些物理信息系统,参考Github中的Hello-Cannon.js!项目。
看到这,你是否对VR技术的入门知识有个大概的了解呢?其实VR开发并不是什么特别的新东西,它跟传统的Native和Web开发相差并不远。希望这篇文章可以给喜欢VR的朋友们带来一些小小帮助。
智能电视/盒子资讯可关注高清范论坛,全国极具影响力的电视盒子及智能电视网站,提供电视盒子、智能电视、智能电视软件等方面的资讯、交流、答疑。,微信号hdpfans_com
分享到微信朋友圈
在手机阅读、分享本文
还可以输入250个字
推荐文章RECOMMEND
阅读:3103
热门文章HOT NEWS
「中国怪谈」借助粉丝节,与粉丝进行近距离接触与互动,现场的火爆...
百度新闻客户端
百度新闻客户端
百度新闻客户端
扫描二维码下载
订阅 "百家" 频道
观看更多百家精彩新闻如何学习了解vr技术
对于一些新手可能不了解VR技术,搜集整理了一些资料,来解释什么是VR技术,它有哪些特征,它的应用领域有哪些,希望能帮助各位新手了解VR技术,爱上VR技术。
VR(Virtual Reality,即虚拟现实,简称VR),
虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统它利用计算机生成一种模拟环境是一种多源信息融合的交互式的三维动态视景和实体行为的系统仿真使用户沉浸到该环境中。
虚拟现实技术是仿真技术的一个重要方向是仿真技术与计算机图形学人机接口技术多媒体技术传感技术网络技术等多种技术的集合是一门富有挑战性的交叉技术前沿学科和研究领域。虚拟现实技术(VR)丰要包括模拟环境、感知、自然技能和传感设各等方面。模拟环境是由计算机生成的、实时动态的三维立体逼真图像。感知是指理想的VR应该具有一切人所具有的感知。除计算机图形技术所生成的视觉感知外,还有听觉、触觉、力觉、运动等感知,甚至还包括嗅觉和味觉等,也称为多感知。自然技能是指人的头部转动,眼睛、手势、或其他人体行为动作,由计算机来处理与参与者的动作相适应的数据,并对用户的输入作出实时响应,并分别反馈到用户的五官。传感设备是指三维交互设备。
【发展历史】
虚拟现实技术演变发展史大体上可以分为四个阶段有声形动态的模拟是蕴涵虚拟现实思想的第一阶段(1963)年以前虚拟现实萌芽为第二阶段(1963
-1972 )虚拟现实概念的产生和理论初步形成为第三阶段( )虚拟现实理论进一步的完善和应用为第四阶段(1990
-2004 )。
指除一般计算机所具有的视觉感知外,还有听觉感知、触觉感知、运动感知,甚至还包括味觉、嗅觉、感知等。理想的虚拟现实应该具有一切人所具有的感知功能。
指用户感到作为主角存在丁模拟环境中的真实程度。理想的模拟环境应该达到使用户难辨真假的程度。
指用户对模拟环境内物体的可操作程度和从环境得到反馈的自然程度。
指虚拟环境中的物体依据现实世界物理运动定律动作的程度。
【关键技术】
虚拟现实是多种技术的综合,包括实时三维计算机图形技术,广角(宽视野)立体显示技术,对观察者头、眼和手的跟踪技术,以及触觉/力觉反馈、立体声、网络传输、语音输入输出技术等。下面对这些技术分别加以说明。
实时三维计算机图形
相比较而言,利用计算机模型产生图形图像并不是太难的事情。如果有足够准确的模型,又有足够的时间,我们就可以生成不同光照条件下各种物体的精确图像,但是这里的关键是实时。例如在飞行模拟系统中,图像的刷新相当重要,同时对图像质量的要求也很高,再加上非常复杂的虚拟环境,问题就变得相当困难。
人看周围的世界时,由于两只眼睛的位置不同,得到的图像略有不同,这些图像在脑子里融合起来,就形成了一个关于周围世界的整体景象,这个景象中包括了距离远近的信息。当然,距离信息也可以通过其他方法获得,例如眼睛焦距的远近、物体大小的比较等。
在VR系统中,双目立体视觉起了很大作用。用户的两只眼睛看到的不同图像是分别产生的,显示在不同的显示器上。有的系统采用单个显示器,但用户带上特殊的眼镜后,一只眼睛只能看到奇数帧图像,另一只眼睛只能看到偶数帧图像,奇、偶帧之间的不同也就是视差就产生了立体感。
用户(头、眼)的跟踪
在人造环境中,每个物体相对于系统的坐标系都有一个位置与姿态,而用户也是如此。用户看到的景象是由用户的位置和头(眼)的方向来确定的。
跟踪头部运动的虚拟现实头套:在传统的计算机图形技术中,视场的改变是通过鼠标或键盘来实现的,用户的视觉系统和运动感知系统是分离的,而利用头部跟踪来改变图像的视角,用户的视觉系统和运动感知系统之间就可以联系起来,感觉更逼真。另一个优点是,用户不仅可以通过双目立体视觉去认识环境,而且可以通过头部的运动去观察环境。
在用户与计算机的交互中,键盘和鼠标是目前最常用的工具,但对于三维空间来说,它们都不太适合。在三维空间中因为有六个自由度,我们很难找出比较直观的办法把鼠标的平面运动映射成三维空间的任意运动。现在,已经有一些设备可以提供六个自由度,如3Space数字化仪和SpaceBall空间球等。另外一些性能比较优异的设备是数据手套和数据衣。
人能够很好地判定声源的方向。在水平方向上,我们靠声音的相位差及强度的差别来确定声音的方向,因为声音到达两只耳朵的时间或距离有所不同。常见的立体声效果就是靠左右耳听到在不同位置录制的不同声音来实现的,所以会有一种方向感。现实生活里,当头部转动时,听到的声音的方向就会改变。但目前在VR系统中,声音的方向与用户头部的运动无关。
在一个VR系统中,用户可以看到一个虚拟的杯子。你可以设法去抓住它,但是你的手没有真正接触杯子的感觉,并有可能穿过虚拟杯子的“表面”,而这在现实生活中是不可能的。解决这一问题的常用装置是在手套内层安装一些可以振动的触点来模拟触觉。
在VR系统中,语音的输入输出也很重要。这就要求虚拟环境能听懂人的语言,并能与人实时交互。而让计算机识别人的语音是相当困难的,因为语音信号和自然语言信号有其“多边性”和复杂性。例如,连续语音中词与词之间没有明显的停顿,同一词、同一字的发音受前后词、字的影响,不仅不同人说同一词会有所不同,就是同一人发音也会受到心理、生理和环境的影响而有所不同。
使用人的自然语言作为计算机输入目前有两个问题,首先是效率问题,为便于计算机理解,输入的语音可能会相当啰嗦。其次是正确性问题,计算机理解语音的方法是对比匹配,而没有人的智能。
【应用领域】
VR技术可以用于多个领域,包括医学、娱乐、军事航天、室内设计、房地产开发、工业仿真、应急推演、文物古迹、游戏、Web
3D、道路桥梁、地理、教育、演播室、水文地质、维修、培训实训、船舶制造、汽车仿真、轨道交通、能源领域、生物力学、康复训练、数字地球......
【五大障碍】
虚拟现实技术未来将会发展成一种改变我们生活方式的新突破。在第一代Oculus
Rift的开发者大会上,所有与会者都看到了一个充满潜力的虚拟现实平台。
但是从现在来看,虚拟现实技术想要真正进入消费级市场,还有一段很长的路要走,包括Oculus公司在内。在Oculus内部,也对虚拟现实技术现在面对的问题进行了讨论,并且不断的在寻找解决方法。虽然所有问题最终都会找到答案,但是都不太可能在一夜之间全部解决。
目前,开发者如何为用户提供一个真正身临其境的游戏或应用体验还存在比较大的技术局限性,而一些问题到现在仍然还没有很好的解决办法。
1. 没有真正进入虚拟世界的方法
2. 如何“输入”是一大困扰
3. 缺乏统一的标准
4. 容易让人感到疲劳
5. 装备笨重不美观
VR设备是如何构造出一个虚拟的世界?
可穿戴的高科技设备是如何欺骗你的大脑,当你撞上厨房的柜台的时候却让你觉得你是站在火星上?
在这里我们将向您解释VR头显是如何在现实环境下构造出一个虚拟的世界。让我们从一些基础设备开始讲起。
主流头显市场已经被Oculus, Sony, Sumsang
和Google等大公司占据,此类头显通常需要三部分协同工作使它运转起来:
第一,PC或者智能手机运行APP;
第二,固定在你的眼前的头显(或是手机屏幕);
第三,其他输入设备——头部追踪设备,控制器,手部追踪设备,声音输出设备,或是触控板等等。
VR沉浸式体验设备大体上是朝着这样的方向努力的——将虚拟现实的体验变得尽可能真实,以至于让我们忘记我们在使用着电脑,头显和配件,忘记我们在真实世界中的真实感受。我们不禁发问,他们是如何做到的呢?
VR智能硬件的目标是模拟出身体的形状以及无边界限制的3D虚拟环境,我们通常把电视或者电脑屏幕和VR智能硬件设备连接起来,因此无论你往哪个方向看,电脑屏幕都会在你眼前。这不同于AR设备,AR设备让你看到的画面是真实的世界。
视频通过与高清晰度多媒体接口连接的导线从计算机传输到像HTC Vive和Oculus Rift头显设备中,而对于Google
Cardboard和Samsung Gear VR已经把智能手机内嵌到头显设备中。
在VR头显设备结构中,你的眼睛和外面显示的画面中间会有一个镜头,这就是VR头显的镜头通常被称作护目镜的原因。在某些情况下,眼睛和护目镜之间的距离可以根据个人的情况或是喜好而调整。
这些镜头焦点通过角度加工的方式把2D平面图像做成3D立体图像,并且模拟人眼的工作方式和观察方式使得我们看到的世界和真实的世界稍有不同。你可以尝试闭上一只眼睛,然后看别人从这个角落走到另一个角落里去,你就能感受到VR头显的效果。
VR头显可以增强沉浸效果的一个重要的方法就是增加VR眼镜的视野。一个可以看到360度的显示屏可能对于VR头显来说太昂贵并且意义不大。而最顶级的头显是让用户能够有100度或者110的视野就好,这样的视野足够来模拟一个虚拟的情景。
用户实际观察到的VR图像是最具有说服力的,为了避免VR设备工作延迟和用户感觉不适,图像的最小帧速率大约为60帧/秒,而现在的VR头显的性能远远超过了这个最低要求,Oculus可以达到90帧/秒的水平,PS
VR可以达到120帧/秒的水平。
头部追踪设备
头部追踪设备作用是,当你戴上VR头显时,你眼前的画面会随着你向上下看、左右看、转头看而移动。一款叫6DoF (6 degrees
of freedom)的系统可以根据你头部的运动情况和视野情况来绘制视线中的X,Y,Z轴。
有一些内部组件可以在头部追踪设备中使用,例如陀螺仪、加速度计和磁力计。PS
VR使用9个发光二极管安装在头显的周围,得益于外部PS4摄像头监控这些信号,发光二极管会感应到用户头部的活动信息并且能够得到360度的视野。Oculus公司研发的头部追踪设备有20个二极管,但它们都没有光亮。
头部追踪技术需要的低延迟率还是有效的,我们通常说当我们转头或是画面的环境变化时,在50毫秒以内的延迟我们一般都能检测得到。Oculus
Rift可以将延迟降低到30毫秒。延迟也可能是任何运动追踪输入设备的通病,例如PS移动式控制器,可以用来测量我们的手和手臂动作。
最后,耳机可以用来增加沉浸感。APP和游戏开发人员研发的头部追踪技术有效地利用了3D音效,并且这个能让VR设备穿戴者感觉到声音从后面从侧门或是从远处传来。
运动跟踪设备
头部追踪设备的一大优势就是,尚未发行的优质头显有超过Google
Cardboard的潜质。然而,喜欢大型VR设备的玩家仍然更偏爱运动追踪设备。当你戴着VR头显向下看时,你可能想要做的第一件事就是在虚拟的空间中看看你的手掌的模样。
曾经有一段时间,我们见过Leap
Motion的配件——它使用一个红外传感器来跟踪手部动作,绑在Oculus公司开发套件的前面。我们也做过使用2个Kinect摄像头来跟踪我们身体摇摆的实验。但是有了一些令人感到兴奋的输入设备,比如说Oculus
Rift,HTC Valve和Sony系列等。
Touch是一套无线控制器,该设计会让你觉得你在使用自己的双手实现VR操作。你抓住每一个控制器同时使用按钮、摇杆,在vr游戏中触发相应的事件。因此,举例来说,扣动手枪扳机这个动作,该设备上会设计出一系列的矩阵来检测你的手势动作,例如用枪指的动作和移动枪等一系列动作。
与Valve Lighthouse位置追踪系统非常类似的是为HTC
Vive头显所设计的HTC的控制器。它涉及到2个可以使用激光进行扫描的设备。根据发射的激光被安装在头显和手持控制器上的光电传感器所感应到的时间,我们可以检测出用户的头和手的精确位置。跟Oculus
Touch一样,这些还配置了物理按钮,令人不可思议的是你可以在同一个空间中使用两套Lighthouse系统来追踪多个用户。
眼动追踪设备
眼动追踪设备可能是VR设备中的最后一块拼图。它对Rift, Vive 或者 PS
VR都不适用,但是它在日本FOVE公司推出的设备中起到十分重要的作用,并且前景令人十分看好。那么问题来了,它是如何进行工作的呢?
事实是这样的,头显内部的红外线传感器监控用户眼睛的运动以便于FOVE设备能及时检测到用户的目光朝向。这么做的主要好处是可以更精确地反馈你目光朝向的地方,这就使景深更逼真。
头显还需要高分辨率的显示器,以避免用户会看到一些模糊不清的网格棱角。因此我们应该致力于尽可能地把VR图像变得更加栩栩如生。如果没有眼动追踪设备,那么我们只能通过头部的转动来改变视野中的景象,这种场景模拟的效果可能差一些,因为这样并不能把人类眼睛转动的生理和心理状态表现出来。
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。

我要回帖

 

随机推荐