DLSS这种AI渲染,继续下去最终会变成一种"优suo化shui"手段...

  • d
    dumplingpro
    因为个人玩VR,一直挺期待未来那种8K超大视角的VR头显,但是现在工程样机的性能要求都把1080ti爆得渣都不剩下,怕是有头显,显卡撑不住,帧率保不住晕VR晕倒死。

    所以一直挺关心20系显卡的可变速率着色(注视点渲染)和DLSS。DLSS这玩意,可以看做一种高级优suo化shui手段,老黄既然可以用来1080强行拉伸到4K,而缩水没那么厉害,虽然不如真4K,但至少也是比1080好不少了。

    那么反过来,是不是可以720强行拉伸1080呢?

    比如以后要是普及到低端卡(虽然就老黄的尿性,可能为了卖高端卡把低端卡的DLSS给阉了),大作显卡撑不住了,下个DLSS配置包,直接720->1080,这样少一半像素量,比什么优化都强。
    比如如果手机用上了(手机为了拍照好,AI图像处理方面的硬件逐渐变成标配了),能让受限于性能/功耗比没法提升的手机,画面提升一大截。

    又比如以后AMD也推出了自己的AI抗锯齿,然后下一代主机用上了,这样游戏性能不够的时候,也不辛辛苦苦改场景减面了动态分辨率了,大多数时候容易掉帧的场景直接开DLSS就能解决问题了,终于可以理直气壮的说我是真4K 60帧了。
    (根据老黄的说法,大概是一台机器运行1080,一台机器运行32K之类超高分辨率的画面,然后作为样本给AI学习,这个优化工作量主要是堆硬件,比人工调要省力很多。)

    ----------------

    PS:

    个人做过测试,即使在分辨率要求极高,3K+1.4X超采样(实际4K)都感觉不够的VR,用低分辨率、模糊,但没锯齿的画面(接近印象派油画那种,用的是网上找的低清油画,还有老式2D JRPG的素材丢到3D引擎里测试的),体验并不差,有种并不是特别低清难接受的感觉。

    个人推测跟人脑看东西的机制有关,人眼可以捕捉到大概1E像素(一个眼球里有1E个感光细胞),数百帧(至少我是能明显感觉到240的显示器比144的要"滑"很多)的画面,但是大脑处理不过来。所以人脑看到的东西,实际上是事先经过神经初步处理(现在AI其实就是在模仿这个初步处理),相当抽象的低清画面,人觉得高清只是大脑认为是高清产生的幻觉,细节其实都是大脑脑补出来的,只有长时间观察才会真正补完细节。

    加上人类平常看东西,其实只有视野中心一片地区能看清,边缘是看不清的(可以自己测试下,盯着屏幕中心的字,用余光看屏幕边缘的字),同时也只能看清双眼聚焦点附近一定深度的景物,远处也是模糊的(试试2个手指并起来放在眼睛前面,盯着一根手指,另外一根手指逐渐远离,慢慢就看不清另外一个手指了)。

    所以人类天生就有看低清抽象画面的能力,AI渲染如果能进一步发展模拟出这种效果,也不失为一种画风的进化方向。(一个例子就是,现在AI处理出来的画面很接近印象派油画,而印象派油画,可以尝试下,即使缩小很多倍的略缩图,人还是会莫名地感觉相当"清晰",能够辨认里面的东西,甚至能脑补细节。)
  • B
    BallanceHZ
    dlss是2k(1440p)拉4k