测试条件
AMD relive
渲染分辨率2704*2736,编码分辨率1832*1920,码率100Mbps
VD
渲染分辨率2708*28xx,编码分辨率2708*28xx,码率150Mbps
ALVR
渲染分辨率2704*2736,编码分辨率1832*1920,码率150Mbps
串流软件都有两部分,服务器端(PC端),客户端(Quest2端),服务端调用显卡进行编码,设置编码参数包括编码分辨率和码率,然后将编码完成的流媒体发给客户端,客户端接收数据并调用quest2上的显卡进行解码并显示在屏幕上,我之前以为服务器端也就设个分辨率码率,对比之后觉得应该还有很多参数但是并不对客户开放。之前在Oculus官网看到过Oculus link在编码的时候已经考虑到quest2图像通过镜片显示的曲率问题,编码的图像是不均匀分布的,是有曲率的,这个就是对我们用户不开放的一些参数,应该还有颜色之类的参数。
通过对比发现
1 颜色
VD的颜色是最苍白的,ALVR次之,relive最鲜艳
2 细节
ALVR和relive的细节差不多,不太好分辨谁的细节更好,VD的细节是最差的,中心还好一些,四周的细节简直是没法看,我刚开始甚至以为我抓图的时候不稳晃动了,特意憋住气给VD抓图,后来发现VD所有截图都是这样,图像周围虚的厉害。
由于ALVR登陆一次要开启两遍steamvr,很费时间,所以我就抓了两组图来对比,通过这两组图已经能看出ALVR和其他方式的区别,剩下的都是AMD relive和VD的对比。色彩和细节都差导致VD整体效果不好,像蒙了一层雾,不像其他两种方式图像更清晰颜色更好更有质感。个人猜测VD在服务端降低了很多编码参数导致图像变差,让用户错误的感觉VD串流的效率更高,如果VD画质拉升到和其他方式一样的话,可能效率和稳定性都会下降不少。
AMD relive
渲染分辨率2704*2736,编码分辨率1832*1920,码率100Mbps
VD
渲染分辨率2708*28xx,编码分辨率2708*28xx,码率150Mbps
ALVR
渲染分辨率2704*2736,编码分辨率1832*1920,码率150Mbps
串流软件都有两部分,服务器端(PC端),客户端(Quest2端),服务端调用显卡进行编码,设置编码参数包括编码分辨率和码率,然后将编码完成的流媒体发给客户端,客户端接收数据并调用quest2上的显卡进行解码并显示在屏幕上,我之前以为服务器端也就设个分辨率码率,对比之后觉得应该还有很多参数但是并不对客户开放。之前在Oculus官网看到过Oculus link在编码的时候已经考虑到quest2图像通过镜片显示的曲率问题,编码的图像是不均匀分布的,是有曲率的,这个就是对我们用户不开放的一些参数,应该还有颜色之类的参数。
通过对比发现
1 颜色
VD的颜色是最苍白的,ALVR次之,relive最鲜艳
2 细节
ALVR和relive的细节差不多,不太好分辨谁的细节更好,VD的细节是最差的,中心还好一些,四周的细节简直是没法看,我刚开始甚至以为我抓图的时候不稳晃动了,特意憋住气给VD抓图,后来发现VD所有截图都是这样,图像周围虚的厉害。
由于ALVR登陆一次要开启两遍steamvr,很费时间,所以我就抓了两组图来对比,通过这两组图已经能看出ALVR和其他方式的区别,剩下的都是AMD relive和VD的对比。色彩和细节都差导致VD整体效果不好,像蒙了一层雾,不像其他两种方式图像更清晰颜色更好更有质感。个人猜测VD在服务端降低了很多编码参数导致图像变差,让用户错误的感觉VD串流的效率更高,如果VD画质拉升到和其他方式一样的话,可能效率和稳定性都会下降不少。