近日,英特尔中国研究院举办了一场媒体沟通会,会上,英特尔中国研究院院长宋继强详细地介绍了5G和VR的结合,未来5G将如何助力VR的发展。
5G技术如何应对数据洪流
数据显示:到2020年5G部署的时候,我们将面对50EB数据的流量,每个月的移动数据流量在今天的基础上再增长5倍。EB是10的18次方。同时,5G支持物联网的应用,特别是我们提的自动驾驶,自动驾驶的汽车每天产生的数据是4个TB,假如一天产生的数据容量用硬盘来装载,也将是一个大容量硬盘,每年365天需就要买365个硬盘来存储整个自动驾驶的数据。特别是自动工厂智慧城市里的互联工厂,一天的数据量,像芯片厂、封装厂一天的数据流量就是1TB,一天要买几百块硬盘来装载数据。对于5G来说,我们所要面临的数据洪流是非常巨大,对整个通信系统和计算系统来说都是一个巨大的挑战。
VR作为数据洪流中的重要一员,为什么VR需要特别大的数据容量,为什么VR在数据洪流里会占据大量的流量呢?目前互联网的主要的传输内容是视频,将来VR是代表更高质量视频的未来。
举个例子,如果大家看一张很高清的图片,放在手机上或者是放在电视上会觉得现在的清晰度已经超出你的想象,非常的清楚。但是如果你把一个同样的图片放在一个VR眼镜上,同样的分辨率会变得非常模糊,为什么?主要是视角的原因,我们在手机和电视机上看图片的时候,你的视角只有10到30度左右,在VR眼镜上拓展到100度、120度、150度,一下子增加了好几倍,纵向还有增加的倍数。为了达到非常好的高清要求,对VR的显示来说需要25倍到40倍的分辨率增加,这样它的流量会变得非常高。
比如我们要打造一个非常好的VR系统,现在的系统是达不到这个要求,你需要16K到24K高清的VR。不压缩的话,容量会达500Gbps,每个月的容量是1Gbps,如果是500Gbps,可能是十几年的容量一秒钟就过去了,即使压缩之后也达到1Gbps,同时VR对显示的延迟非常敏感,对传输的容错性也是非常敏感。所以对5G来说,特别是高质量的虚拟现实和增强现实,对5G的通信系统和计算系统来说都要着力应对。
5G系统架构如何实现网络扩容
在5G系统架构里面怎样满足一个速率洪流的要求,主要是采用计算和网络融合的方式,在端到端的部署、计算和网络系统来满足数据处理和传输的要求。
在3G、4G时代,网络是网络,数据和云计算是云计算功能,对于一个云计算的应用来说,网络基本上是透明的,它的传输容量在接入网端的传输容量和核心网的传输容量,骨干网的传输容量是一致的,你发的任何一个请求都会到云计算中心处理,然后再把结果返回给你,这样在整个容量是一个一致的管道的容量。
大家应该都有亲身的体验,如果你宽带扩容了50兆,然后再扩到100兆或1Gbps,其实你的感觉并不明显,你的容量并不是受限于接入网端,而是在核心网、骨干网或者数据中心里面,没有办法支持那么高速率的应用。如果你的小区里面放一个视频服务器,你去访问视频服务器的时候会感觉看起高清大片来特别流畅,主要是因为内容下沉。
在4G的后半期已经引入了边缘计算,边缘计算的目的主要是应对在网络边缘的数据传输和处理的要求。加入边缘计算,可以对很多边缘产生的数据进行实时的处理和反馈,比如智能汽车产生的数据,智能工厂产生的数据,这样就不需要把所有的数据传到云计算中心再进行处理。它有两点非常明显的好处,一是时延非常低,满足物联网的应用。二是减少核心网的带宽。虽然5G会将边缘的容量扩展得很大,比如说100倍到1000倍左右,核心网不可能扩展到1000倍。
5G的网络会把整个物联网设备、智能终端和边缘计算的能力、云计算的能力统一起来,所以我们能够打造一个端到端的网络,同时也是一个端到端的计算平台,来应对5G的数据洪流。
未来的AR/VR
未来,带上VR眼镜,可以用5G的网络把你和一个智能的机器人连接起来,同时机器人能够把360度视频和声音实时的传输到客户端,你可以对机器人进行控制和真实的世界进行互动。这能达到什么效果呢?就好像在任何时间你都会瞬间的转移到世界上任何一个角落,和一个真实的环境进行互动,这是设想的一个超越目前AR和VR远程沉浸式互动的未来。
比如远程购物,你现在是在北京,可以一下子就跑到美国的超市里进行购物,从货架上亲自把你想要的东西选下来,你就再也不用担心假货。还有远程的旅游,比如说你在一个你喜欢的时间和地点,比如说慕田峪刚下过雪,或者夕阳西下的时候,一下子跑到那里,可以亲自体验一下那个美景。还有社交的功能,大家回家都非常少,在外地工作的时候,有了这个系统可以瞬间转移到你的家里,和你的父母进行聊天,好像你真的回到家里身临其境一样。
VR主要的肯定是要做内容,目前的VR内容2K、4K,它的清晰度还差得很远,怎么样产生高质量VR的内容呢。如果你体验过VR的视频可能会有一些体验,目前的VR视频除了是好莱坞制作的大片,基本上VR视频内容都是2D的,因为3DVR视频生成是非常复杂的,制作难度也大。
未来VR的内容制作聚焦两点:一,3DVR视频能实时合成,能够产生高质量的内容。二,实时产生内容满足我们对远程沉浸式未来的要求。
目前,Intel研发的设备,有17个摄像头,每个摄像头是2K的分辨率,为什么需要这么多的摄像头,实际上主要是为了在水平方向能够在任意方向差值生成一个3D的内容,需要每个摄像头之间有比较多的重合区域,所以需要非常多的摄像头。3DVR的合成算法非常复杂,特别是产生一个没有瑕疵的3D视频,要消除它的鬼影效应,消除拼接的瑕疵,采用非常复杂的光流算法,即使是目前强大的服务器和强大的台式机也很难完成实时性的功能。
Intel开发了分布式的处理平台,是非常高密度的分布式处理平台,是2.5U高的机箱,可以插入12个至强CPU卡,同时插入12块FPGA卡,中间有600G左右的互联能力。对视频VR处理来说,对实时合成来说一个主要的功能就是怎么样实现同步,从处理的角度实现,这个平台也可以支持。通过算法的研究,通过实时处理的加强,希望能够达到产生一个非常高质量的,比如说现在产生8K的高清的内容,满足将来的要求。
边缘计算助力VR
VR内容有了之后,下一个面临的问题是怎样把这些内容传输到客户端。上面谈及VR的传输要求是非常高,整个的带宽需要是100兆到1Gbps。同时,延迟需要非常低,只有十几毫秒到二十多毫秒。目前的网络基本上是没有办法满足这个要求,所有移动的网络是有接入网、核心网、骨干网,所以在任何的两个用户之间传输,即使你是在离得很近的两个用户传输,实际上要走一大圈,中间需要经过非常多的设备,即使优化得很好,效果只能达到50毫秒到100毫秒。
在这种情况下怎么能够满足VR处理实时性的十几毫秒的要求,特别是移动的时候跟上你的显示速度,这只有十几毫秒。5G的边缘计算就能解决这方面问题,通过通信和计算结合的方法,采用边缘计算的能力能够使VR达到实时传输的要求,解决从显示到头显的要求,解决从带宽到时延的要求。
首先,生成VR的视频内容之后,把360度的全景视频通过压缩传到边缘服务器,在边缘服务器端有整个全景的内容,可以同时服务多个用户。每个用户会把自己的视角信息,你在看哪个方向传给边缘服务器,边缘服务器把视角信息的内容发给用户。
这样有两个特别显著的好处:
一是通过通信和计算结合的方式,采用边缘服务器能够显著降低从移动到显示的时延,本来是50到100毫秒,现在只是10到20毫秒。二是能够大大降低无线通信带宽的需求。如果不采用这种方法需要1Gbps带宽,采用这种方法可以降低2到3倍。通过这种方法能够打造一个5G网络传输系统。
还有一点比较重要的:可靠性。因为VR的传输它对数据传输的可靠性要求非常高。一个视频如果离得很远,看电视的时候突然有一些瑕疵可能感觉比较明显,但不会感觉特别不舒服,但是如果一个VR眼镜在显示一个视频的时候,如果突然感觉有一帧丢失了,就需要很长的时间才能恢复出来,这时候会感觉到特别的不舒服。
怎么样满足这个要求呢?当然,如果仅仅从通信设计的角度去设计一个速率非常高,延时非常低,同时容错性非常好的系统,这也是可以做得到的,但是整个的成本和效率就会非常低。用通信和计算结合的方式,把整个头显端的计算功能增强,在头显端做一些容错性处理,比如把异步时间扭曲的功能加到头显端。
举个例子,通过边缘服务器或者是个人的笔记本,把视频、游戏传到头显端,一帧会正确接收,当二帧传输失败的时候,头显端会用前一帧的内容根据目前头显的位置信息和视角信息进行旋转,重新生成二帧的内容,这时候用户对整个传输失败的感觉不会太明显,甚至没有丢失的感觉,这样用户体验会大大提升。将这种增强异步时间扭曲的功能加入到移动VR头显端,特别是加入到手机端。通过增强头显端和手机端的功能,提高整个系统的可靠性和体验,显著的降低VR带宽的需求和整个设计的难度。
西安旭阳展览展示有限公司15年专注博物馆、企业馆、科技馆、规划馆、纪念馆、*建展厅设计施工,灵活应运创意多媒体,通过高科技设备将声光电完美结合,使各类展厅的实用性和科技感更完美呈现在用户面前。我们拥有专业的策划设计团队,完美的“智造者”以及360度保姆式服务体系,为客户提供全方位一站式(博物馆、企业馆、科技馆、规划馆、纪念馆、*建展厅)解决方案,咨询电话:158 2925 8830.